DeepSeek本地部署教程:分分钟搞定,附详细步骤

胜天半子 发布于 19 天前


 

 

1. 下载 Ollama

首先访问 Ollama 官方网站,选择 Windows 版本安装包并下载:

注意:下载地址托管于 GitHub,可能需要翻墙。

2. 安装 Ollama

提供两种安装方式,请选择其中一种:

  • 🥪命令行安装(推荐,可自定义目录)
  • 🍞双击安装(不推荐,默认安装至 C 盘)

2.1 🥪命令行安装(推荐)

以管理员身份打开 CMD,切换到安装包所在目录(例如 D:\Temp),执行:

OllamaSetup.exe /DIR="D:\Program\Ollama"

此命令会指定安装到 D:\Program\Ollama。点击弹出的安装界面中的 Install 即可:

安装完成后,Ollama 默认启动,请在任务栏图标上右键选择“退出”。

2.2 🍞双击安装(不推荐)

双击安装包,直接点击 Install

默认目录:C:\Users\ac\AppData\Local\Programs\Ollama,占用约 4.56 GB:

安装后同样需要退出 Ollama。

桌面无快捷方式,可在开始菜单或系统搜索中启动:

3. (可选)移动安装目录

如果已使用命令行安装,此步可跳过。

否则请将 C:\Users\ac\AppData\Local\Programs\Ollama 整个文件夹剪切至例如 D:\Program\Ollama

打开“环境变量”设置,编辑用户变量 Path 中 Ollama 所在路径为新的目录:

4. 验证 Ollama 安装

打开 CMD,执行:

ollama -v

若显示版本号,则安装成功。

 

ollama -h

可查看 Ollama 支持的其他命令。

5. 修改模型存储位置

默认模型存储于 C:\Users\ac\.ollama\models。需自定义时:

  1. 打开“环境变量” → 用户变量 → 新建:
  2. 变量名:OLLAMA_MODELS
  3. 变量值:D:\Program\Ollama\Models

6. 下载 DeepSeek 模型

在 Ollama 官网页面点击 Models,找到 deepseek-r1 并进入:

选择版本(示例:1.5b),然后复制命令:

ollama run deepseek-r1:1.5b

在新的 CMD 窗口执行以确保模型存储路径为之前设置的 OLLAMA_MODELS

下载速度不稳定时,可用 Ctrl+C 终止并重试。

7. 验证 DeepSeek 模型

下载完毕后,CMD 输入:

ollama run deepseek-r1:1.5b

即可进入对话模式。

查看已安装模型列表:

ollama list

退出对话输入:

/bye

8. 使用 Web UI 进行对话

8.1 Chrome 插件 “Page Assist”

  1. 在 Chrome 应用商店搜索并安装 “Page Assist - 本地 AI 模型的 Web UI”。
  2. 固定插件并点击打开。
  3. 若提示无法连接,先启动 Ollama。
  4. 点击设置 → 语言选择 “简体中文”。
  5. 在主界面选择模型 deepseek-r1:1.5b

8.2 在线 Web UI “ChatboxAI”

  1. 访问 https://web.chatboxai.app/,关闭弹窗。
  2. Settings → DISPLAY → 选择 “简体中文” → 保存。
  3. 在环境变量中新建:
    • OLLAMA_HOST = 0.0.0.0
    • OLLAMA_ORIGINS = *
  4. 重启 Ollama,使在线界面自动连接。
  5. Settings → 模型提供方 选择 “OLLAMA API”,模型选择 deepseek-r1:1.5b → 保存。

至此,Ollama 与 DeepSeek R1 的本地部署及简单对话演示均已完毕

遇挚友,如逢春,自此长明,天光大亮
最后更新于 2025-05-17