以下是 DeepSeek 本地部署详细教程,涵盖 Windows 和 Mac 系统,基于 Ollama 工具实现快速部署,支持离线使用和数据隐私保护:
一、部署前准备
- 硬件要求
- 显卡:推荐 8GB 显存以上(如 RTX 3060、AMD RX 6600),CPU 部署需 16GB 内存(速度较慢)。
- 存储:预留 20GB 以上空间(模型文件较大)。
- 系统:Windows 10/11(64 位)或 macOS(Intel/M 系列芯片)。
- 模型选择
- DeepSeek-R1:专注逻辑推理与实时问题解决,参数规模 671 亿,支持多任务处理。
- 版本推荐:
1.5b
:适合低配电脑(2GB 显存)。7b
:平衡性能与资源占用(8GB 显存)。14b
/32b
:高端设备推荐(16GB+ 显存)。
二、Windows 系统部署步骤
1. 安装 Ollama
- 下载:访问 Ollama 官网,选择 Windows 版本下载安装包。
- 安装:双击运行,按提示完成安装,桌面出现 Ollama 图标(小羊驼)即表示成功。
- 环境变量设置(可选):
- 在 D 盘新建文件夹
OllamaAI
,右键“此电脑”→“属性”→“高级系统设置”→“环境变量”。 - 新建系统变量:
- 变量名:
OLLAMA_MODELS
- 变量值:
D:\OllamaAI
- 变量名:
- 重启电脑生效(避免模型默认下载到 C 盘)。
- 在 D 盘新建文件夹
2. 下载 DeepSeek 模型
- 打开命令提示符(CMD):按
Win + R
,输入cmd
回车。 - 输入下载命令:
ollama run deepseek-r1:7b # 示例:下载 7B 参数版本 - 其他版本替换
7b
为1.5b
、14b
等。 - 下载时间取决于网速和模型大小(约 10-30 分钟)。
- 其他版本替换
3. 运行模型
- 命令行交互:下载完成后,直接在 CMD 输入:
ollama run deepseek-r1:7b - 输入问题后回车,模型会实时生成回答。
- 退出:输入
/exit
或按Ctrl + C
终止。
4. 进阶:搭建 Web 界面(可选)
- 安装 Docker:访问 Docker 官网 下载并安装。
- 下载 Open-WebUI:
git clone https://github.com/open-webui/open-webui.git cd open-webui - 运行 Web 服务:
docker compose up -d - 浏览器访问
http://localhost:8080
,选择已部署的 DeepSeek 模型即可使用图形界面。
- 浏览器访问
三、Mac 系统部署步骤
1. 安装 Ollama
- 下载:访问 Ollama 官网,选择 macOS 版本(Intel 或 M 系列芯片)。
- 安装:双击
.pkg
文件,按提示完成安装。 - 验证:打开“终端”,输入
ollama
,出现帮助信息即表示成功。
2. 下载 DeepSeek 模型
- 终端命令:
ollama run deepseek-r1:7b # 示例:下载 7B 参数版本 - 其他版本替换
7b
为1.5b
、14b
等。
- 其他版本替换
3. 运行模型
- 终端交互:下载完成后,直接在终端输入:
ollama run deepseek-r1:7b - 输入问题后回车,模型会实时生成回答。
- 退出:输入
/exit
或按Ctrl + C
终止。
四、模型管理与优化
- 查看已安装模型:
ollama list - 删除模型:
ollama rm deepseek-r1:7b # 替换为实际模型名 - 停止运行:
ollama stop
五、常见问题解决
- 下载失败:
- 检查网络连接,或使用国内镜像源(如魔搭社区)。
- 确保命令拼写正确(如
deepseek-r1
而非deepseek
)。
- 显存不足:
- 降低模型参数(如从
14b
切换到7b
)。 - 关闭其他占用显存的程序。
- 降低模型参数(如从
- 命令行不熟悉:
- 直接使用 DeepSeek 官方 App 或网页版(官网链接),无需部署。
六、适用场景推荐
- 本地部署优势:
- 数据安全:敏感信息不离本地,避免泄露。
- 离线使用:无网络环境下仍可运行。
- 高频任务:降低 API 调用成本(如企业级应用)。
- 个性化定制:调整模型参数或微调数据。
- 云端使用推荐:
- 日常轻量级任务(如简单问答)。
- 设备性能不足时(如旧电脑或手机)。