IDC知识库
IDC领域专业知识百科平台

deepseek本地部署模板

一、基础部署方案(Ollama + Chatbox)

适用场景:个人用户快速部署,支持离线使用,无需复杂配置。
硬件要求

  • 显卡:NVIDIA GPU(推荐4GB以上显存),CPU模式需8GB内存。
  • 存储:至少预留20GB空间(7B模型约12GB,70B模型约65GB)。

步骤

  1. 安装Ollama
    • 下载地址:Ollama官网
    • 选择对应系统版本(Windows/macOS/Linux),双击安装包完成安装。
  2. 拉取DeepSeek模型
    • 打开终端(Windows按Win+R输入cmd,macOS/Linux打开Terminal),输入以下命令:
      ollama run deepseek-r1:7b # 7B轻量版,适合低配设备
      ollama run deepseek-r1:70b # 70B高性能版,需高端显卡
    • 等待模型下载完成(约10-60分钟,取决于网络速度)。
  3. 配置Chatbox(可视化界面)
    • 下载地址:Chatbox官网
    • 安装后打开,选择“Ollama”作为模型提供方,API地址填写http://localhost:11434
    • 在模型列表中选择已下载的deepseek-r1,即可开始对话。

效果

  • 支持文本生成、逻辑推理、代码编写等任务。
  • 响应速度:7B模型约3-5 tokens/s(CPU模式),70B模型约10-15 tokens/s(GPU模式)。

二、进阶部署方案(Docker + Open WebUI)

适用场景:开发者或团队需要局域网共享或远程访问。
硬件要求

  • 服务器:至少2核4GB内存(推荐4核8GB以上)。
  • 显卡:NVIDIA GPU(可选,提升推理速度)。

步骤

  1. 安装Docker
    • 下载地址:Docker官网
    • 按向导安装,并启动Docker服务。
  2. 部署Open WebUI
    • 打开终端,输入以下命令:
      docker run -d -p 3000:8080 \
      –add-host=host.docker.internal:host-gateway \
      -v open-webui:/app/backend/data \
      –name open-webui –restart always \
      ghcr.io/open-webui/open-webui:main
    • 等待容器启动完成(约1-2分钟)。
  3. 配置模型路径
    • 访问http://localhost:3000,在设置中指定Ollama地址为http://host.docker.internal:11434
    • 选择已下载的deepseek-r1模型,即可通过网页交互。

局域网共享

  • 修改Ollama环境变量,允许局域网访问:
    # Windows(管理员CMD)
    setx OLLAMA_HOST “0.0.0.0”
    setx OLLAMA_ORIGINS “*”
    # macOS/Linux(Terminal)
    export OLLAMA_HOST=“0.0.0.0”
    export OLLAMA_ORIGINS=“*”
  • 其他设备通过http://[服务器IP]:3000访问。

效果

  • 支持多用户同时访问,适合团队内部使用。
  • 可扩展功能:添加知识库、联网搜索、插件集成等。

三、企业级部署方案(宝塔面板 + Nginx反向代理)

适用场景:企业需要域名访问、HTTPS加密、高并发支持。
硬件要求

  • 云服务器:4核8GB内存以上,带宽10Mbps以上。
  • 域名:已备案域名(如deepseek.yourcompany.com)。

步骤

  1. 安装宝塔面板
    • 选择对应系统版本的安装脚本,在终端运行:
      # CentOS/Ubuntu
      wget -O install.sh http://download.bt.cn/install/install_6.0.sh && bash install.sh
    • 安装完成后,访问面板地址(如https://服务器IP:8888),登录并初始化。
  2. 部署DeepSeek服务
    • 在宝塔面板中安装“Docker”和“Nginx”插件。
    • 通过SSH连接服务器,拉取模型并启动容器:
      docker run -d -p 11434:11434 –name deepseek-ollama ollama/ollama
      ollama pull deepseek-r1:70b
  3. 配置Nginx反向代理
    • 在宝塔面板中创建网站,域名填写deepseek.yourcompany.com
    • 在网站设置中添加反向代理规则:
      代理地址:http://127.0.0.1:11434
      代理设置:启用WebSocket支持
    • 申请SSL证书(如Let’s Encrypt),启用HTTPS。
  4. 访问控制(可选)
    • 通过宝塔面板的“防火墙”插件,限制访问IP范围。
    • 或配置Basic Auth认证,防止未授权访问。

效果

  • 通过域名安全访问,支持HTTPS加密。
  • 可承载100+并发请求(70B模型,4核8GB服务器)。

四、常见问题解决

  1. 模型下载慢
    • 使用代理或切换网络(如手机热点)。
    • 手动下载模型文件(GGUF格式),通过ollama import导入。
  2. GPU加速无效
    • 确认已安装NVIDIA驱动和CUDA工具包。
    • 在Ollama启动命令中添加--gpu参数:
      ollama run –gpu deepseek-r1:70b
  3. 端口冲突
    • 修改Ollama或WebUI的端口号(如将11434改为11435)。
    • 在防火墙中放行新端口。
  4. 模型响应慢
    • 降低模型参数量(如从70B切换至7B)。
    • 启用量化(如deepseek-r1:70b-q4_0),减少显存占用。

域名频道为客户提供服务器代维服务,为客户节约服务器维护成本,费用不到专职人员的十分之一。
服务器托管与单独构建机房和租用专线上网相比、其整体运营成本有较大降低。
网站空间可随意增减空间大小,空间升级可以按照对应的产品号升级到相对应的空间类型。随时随地能达到用户的使用要求。
您有自己的独立服务器,需要托管到国内机房,我们为你提供了上海电信五星级骨干机房,具体请查看http://www.dns110.com/server/ai-server.asp

赞(0)
分享到: 更多 (0)

中国专业的网站域名及网站空间提供商

买域名买空间