一、使用Ollama工具部署(推荐新手)
- 安装Ollama
- 访问Ollama官网,下载与操作系统匹配的版本(Windows/macOS/Linux)。
- 安装完成后,在终端输入
ollama help
,确认无报错即安装成功。
- 选择DeepSeek模型
- 在Ollama官网的Models板块搜索
DeepSeek-R1
,根据电脑配置选择模型版本(如1.5B、7B、8B等)。 - 参数建议:
- 1.5B:适合低配电脑(2GB显存即可运行)。
- 7B/8B:适合中高端显卡(如NVIDIA GTX 1060以上)。
- 32B:需32GB显存,仅推荐高端设备。
- 在Ollama官网的Models板块搜索
- 下载并运行模型
- 复制下载命令(如
ollama run deepseek-r1:8b
)。 - 以管理员身份打开终端(Windows用PowerShell,macOS/Linux用Terminal),粘贴命令并回车。
- 等待下载完成,出现
success
提示即部署成功。
- 复制下载命令(如
- 通过Chatbox实现网页操作(可选)
- 下载安装Chatbox,打开设置,选择Ollama API。
- 从列表中选择已部署的
deepseek-r1
模型,保存后即可通过网页或客户端与AI对话。
二、手动部署(适合开发者)
- 环境准备
- 下载代码库
- 打开终端,进入项目目录(如桌面):
cd ~/Desktop - 使用Git克隆DeepSeek代码库:
git clone https://github.com/deepseek-ai/deepseek.git - 进入项目目录:
cd deepseek
- 打开终端,进入项目目录(如桌面):
- 安装依赖并下载模型
- 安装依赖库:
pip install -r requirements.txt - 从Hugging Face下载预训练模型文件(如
.bin
或.pt
格式),放入deepseek/models/
目录。
- 安装依赖库:
- 配置并运行
- 打开
config.yaml
文件,修改以下参数:device: cuda # 若有GPU,否则改为cpu model_path: ./models/your_model_file.bin # 替换为实际模型文件名 - 启动DeepSeek:
python run.py - 成功运行后,终端会显示本地访问地址(如
http://127.0.0.1:5000
),在浏览器中打开即可使用。
- 打开
三、使用国产工具部署(零基础友好)
- 下载部署工具
- 访问部署工具下载页,下载支持DeepSeek的本地化部署工具(如
DS本地部署大师
或聪明灵犀
)。
- 访问部署工具下载页,下载支持DeepSeek的本地化部署工具(如
- 选择模型并安装
- 打开软件,选择下载模型,从列表中挑选DeepSeek模型(如7B、13B版本)。
- 自定义安装路径(建议选择剩余空间较大的磁盘),点击下载并等待完成。
- 启动并使用
- 安装完成后,点击立即体验,进入交互界面。
- 在底部输入框中输入问题,AI会快速响应。支持功能包括:
- 智能问答、文档上传、知识库训练。
- 离线使用(无需网络)。
- 自动保存15天内的对话记录。
域名频道为客户提供服务器代维服务,为客户节约服务器维护成本,费用不到专职人员的十分之一。
服务器托管与单独构建机房和租用专线上网相比、其整体运营成本有较大降低。
网站空间可随意增减空间大小,空间升级可以按照对应的产品号升级到相对应的空间类型。随时随地能达到用户的使用要求。
您有自己的独立服务器,需要托管到国内机房,我们为你提供了上海电信五星级骨干机房,具体请查看http://www.dns110.com/server/ai-server.asp