普通人学AI指南代码生成、指令跟踪等能力获得大幅度提升。 3.1 大模型 Llama3 3.1.1 步骤 1:安装 Ollama Ollama 可以简单理解为客户端,实现和大模型的交互。ollama 软件 win 和 mac 都包括,如图 11 所示。 13 Figure 11: Ollama 下载 在这里已经为大家准备好,只需要在我的微信公众号郭震 AI,回复消息: ollama,就能下载到软件。 下载之后打开,直接点击 21: win、mac 及 linux 下载 docker 软件 4.2.3 安装 docker 安装 docker 非常简单,基本都是下一步。注意在安装过程中,我们需要确 保”Use WSL 2 instead of Hyper-V (recommended)” 这一功能被启用。 docker 有 UI 界面,如图 22所示: 21 Figure 22: docker 在 mac 下的 UI hello-world 如果返回消息中带有:成功,表明安装成功。 4.3 步骤二 docker 部署 lobechat 通过 docker 部署,只需要一两行命令,非常简单。 无论 windows 还是 mac,都是打开命令窗口,输入下面命令: docker pull lobehub/lobe-chat:latest 这条命令用于从 Docker Hub 上拉取最新的 lobehub/lobe-chat0 码力 | 42 页 | 8.39 MB | 8 月前3
Deepseek R1 本地部署完全手册个⼈⽤户:不建议部署32B及以上模型,硬件成本极⾼且运维复杂。 企业⽤户:需专业团队⽀持,部署前需评估ROI(投资回报率)。 ⼆、本地部署核⼼配置要求 1. 模型参数与硬件对应表 模型参 数 Windows 配置要求 Mac 配置要求 适⽤场景 1.5B - RAM: 4GB - GPU: 集成显卡/现代CPU - 存储: 5GB - 内存: 8GB (M1/M2/M3) - 存储: 5GB 简单⽂本⽣成、基础代 IQ1_M 158 GB ≥200 GB 消费级硬件(如Mac Studio) DeepSeek-R1-Q4_K_M 404 GB ≥500 GB ⾼性能服务器/云GPU 下载地址: HuggingFace模型库 Unsloth AI官⽅说明 2. 硬件配置建议 硬件类型 推荐配置 性能表现(短⽂本⽣成) 消费级设备 Mac Studio(192GB统⼀内存) 10+ token/秒0 码力 | 7 页 | 932.77 KB | 8 月前3
共 2 条
- 1













