如何在 Visual Studio Code 中免费使用 DeepSeek R1,搭配 Cline 或 Roo Code
如果你正在寻找一款推理能力出色且完全免费(开源)的人工智能模型,那么新推出的 DeepSeek R1 绝对值得一试!它在性能上可以与 GPT-4、o1-mini、Claude 3.5 等模型一较高下,甚至在某些方面表现得更好。我亲自测试过,对其表现赞不绝口!
如果你想直接在 Visual Studio Code 中将其作为类似 GitHub Copilot 的代码助手使用,而且完全免费,那就跟着我一起看看如何通过 LM Studio、Ollama 和 Jan 等工具来实现吧!
DeepSeek R1 为何如此受关注?
- 免费且开源:与许多收费高昂的模型不同,你可以免费使用它,甚至可以通过 chat.deepseek.com 进行聊天。
- 性能卓越:在逻辑推理、数学计算以及代码生成(这是我最喜欢的部分)等任务中,它不仅能够与其它模型竞争,还常常表现得更为出色。
- 多种版本可选:为了在本地运行(LLM),DeepSeek R1 提供了从 1.5B 到 70B 参数的不同模型版本,你可以根据自己的硬件配置选择最适合的版本。
- 易于集成:你可以通过 Cline 或 Roo Code 等扩展轻松将其连接到 VSCode。
- 零成本:如果选择在本地运行,你无需支付任何代币或 API 费用。不过,建议使用显卡来运行,因为仅依靠 CPU 会比较慢。
开始之前的重要提示
- 节省资源:如果你的电脑性能不够强大,建议选择较小的模型(如 1.5B 或 7B 参数)或量化版本。
- 计算所需内存:使用 LLM Calc 来计算你需要的最小内存。
- 隐私保护:在本地运行意味着你的数据会保留在本地电脑上,不会发送到外部服务器。
- 免费运行:在本地运行是完全免费的,但如果想使用 DeepSeek API,则需要购买代币。好消息是,它的价格远低于竞争对手。
如何选择适合你的 DeepSeek R1 模型?
DeepSeek R1 提供了多个版本,具体选择取决于你的硬件配置:
-
1.5B 参数:
- 所需内存:约 4 GB。
- 显卡:集成显卡(如 NVIDIA GTX 1050)或现代 CPU。
- 适用场景:简单任务和性能一般的电脑。
-
7B 参数:
- 所需内存:约 8-10 GB。
- 显卡:独立显卡(如 NVIDIA GTX 1660 或更高)。
- 适用场景:中级任务和性能较好的电脑。
-
70B 参数:
- 所需内存:约 40 GB。
- 显卡:高端显卡(如 NVIDIA RTX 3090 或更高)。
- 适用场景:复杂任务和性能强大的电脑。
如何在本地运行 DeepSeek R1?
1. 使用 LM Studio
- 下载并安装 LM Studio:访问 LM Studio 官网,下载适合你系统的版本。
- 下载 DeepSeek R1 模型:在 LM Studio 中,前往 Discover 选项卡,搜索 “DeepSeek R1”,并选择与你的系统最兼容的版本。如果你使用的是配备苹果处理器的 MacBook,请在搜索栏旁边保持 MLX 选项启用(这些版本针对苹果硬件进行了优化)。对于 Windows 或 Linux 系统,则选择 GGUF 选项。
- 加载模型:下载完成后,前往 Local Models,选择 DeepSeek R1,并点击 Load。
- 启动本地服务器:在 Developer 选项卡中,启用 Start Server。它将在
http://localhost:1234上运行模型。 - 继续下一步:集成到 VSCode!
2. 使用 Ollama
-
安装 Ollama:从 Ollama 官网下载并安装。
-
下载模型:在终端中运行以下命令:
bash复制
ollama pull deepseek-r1如果你需要较小的模型版本,请访问 ollama.com/library/dee…,查看终端中需要运行的具体命令。
-
启动服务器:在终端中执行以下命令:
bash复制
ollama serve该命令将在
http://localhost:11434上运行模型。 -
继续下一步:集成到 VSCode!
3. 使用 Jan
- 下载并安装 Jan:在 Jan 官网选择适合你系统的版本进行下载和安装。
- 下载模型:我没有在 Jan 中直接找到 DeepSeek R1,于是前往 Hugging Face 网站,手动搜索 “unsloth gguf deepseek r1”。找到所需的版本后,点击 “Use this model” 按钮并选择 Jan 作为选项。模型会自动在 Jan 中打开,然后我进行了下载。
- 加载模型:下载完成后,选择该模型并点击 Load。
- 启动服务器:Jan 会自动启动服务器,通常运行在
http://localhost:1337上。 - 继续下一步:集成到 VSCode!
4. 集成到 VSCode
-
安装扩展:在 VSCode 中,打开扩展选项卡并安装 Cline 或 Roo Code。
-
为 Jan 或 LM Studio 配置扩展:Cline 和 Roo Code 的配置几乎完全相同。请按照以下步骤操作:
- 点击扩展并进入 “Settings” 。
- 在 API Provider 中,选择 “LM Studio” 。
- 在 Base URL 字段中,输入你在 Jan 或 LM Studio 中配置的 URL。
- 如果你只下载了一个模型,Model ID 字段将自动填充。否则,请手动选择你下载的 DeepSeek 模型。
- 最后点击 “Done” 。
-
为 Ollama 配置扩展:
- 点击扩展并进入 “Settings” 。
- 在 API Provider 中,选择 “Ollama” 。
- 在 Base URL 字段中,输入你在 Ollama 中配置的 URL。
- 如果你只下载了一个模型,Model ID 字段将自动填充。否则,请手动选择你下载的 DeepSeek 模型。
- 最后点击 “Done” 。
集成完成,现在你可以尽情享受 Cline 或 Roo Code 的强大功能了!
结语
对于那些希望免费使用强大人工智能的开发者来说,DeepSeek R1 绝对是一个救星。通过 LM Studio、Ollama 或 Jan,你可以轻松地在本地运行它,并直接将其集成到 Visual Studio Code 中。选择适合你电脑的模型版本,立刻开始使用吧!