如何在 Visual Studio Code 中免费使用 DeepSeek R1,搭配 Cline 或 Roo Code

2,387 阅读5分钟

如何在 Visual Studio Code 中免费使用 DeepSeek R1,搭配 Cline 或 Roo Code

image.png

如果你正在寻找一款推理能力出色且完全免费(开源)的人工智能模型,那么新推出的 DeepSeek R1 绝对值得一试!它在性能上可以与 GPT-4、o1-mini、Claude 3.5 等模型一较高下,甚至在某些方面表现得更好。我亲自测试过,对其表现赞不绝口!

如果你想直接在 Visual Studio Code 中将其作为类似 GitHub Copilot 的代码助手使用,而且完全免费,那就跟着我一起看看如何通过 LM StudioOllamaJan 等工具来实现吧!

DeepSeek R1 为何如此受关注?

  • 免费且开源:与许多收费高昂的模型不同,你可以免费使用它,甚至可以通过 chat.deepseek.com 进行聊天。
  • 性能卓越:在逻辑推理、数学计算以及代码生成(这是我最喜欢的部分)等任务中,它不仅能够与其它模型竞争,还常常表现得更为出色。
  • 多种版本可选:为了在本地运行(LLM),DeepSeek R1 提供了从 1.5B 到 70B 参数的不同模型版本,你可以根据自己的硬件配置选择最适合的版本。
  • 易于集成:你可以通过 ClineRoo Code 等扩展轻松将其连接到 VSCode。
  • 零成本:如果选择在本地运行,你无需支付任何代币或 API 费用。不过,建议使用显卡来运行,因为仅依靠 CPU 会比较慢。

开始之前的重要提示

  • 节省资源:如果你的电脑性能不够强大,建议选择较小的模型(如 1.5B 或 7B 参数)或量化版本。
  • 计算所需内存:使用 LLM Calc 来计算你需要的最小内存。
  • 隐私保护:在本地运行意味着你的数据会保留在本地电脑上,不会发送到外部服务器。
  • 免费运行:在本地运行是完全免费的,但如果想使用 DeepSeek API,则需要购买代币。好消息是,它的价格远低于竞争对手。

如何选择适合你的 DeepSeek R1 模型?

DeepSeek R1 提供了多个版本,具体选择取决于你的硬件配置:

  • 1.5B 参数

    • 所需内存:约 4 GB。
    • 显卡:集成显卡(如 NVIDIA GTX 1050)或现代 CPU。
    • 适用场景:简单任务和性能一般的电脑。
  • 7B 参数

    • 所需内存:约 8-10 GB。
    • 显卡:独立显卡(如 NVIDIA GTX 1660 或更高)。
    • 适用场景:中级任务和性能较好的电脑。
  • 70B 参数

    • 所需内存:约 40 GB。
    • 显卡:高端显卡(如 NVIDIA RTX 3090 或更高)。
    • 适用场景:复杂任务和性能强大的电脑。

如何在本地运行 DeepSeek R1?

1. 使用 LM Studio

  • 下载并安装 LM Studio:访问 LM Studio 官网,下载适合你系统的版本。
  • 下载 DeepSeek R1 模型:在 LM Studio 中,前往 Discover 选项卡,搜索 “DeepSeek R1”,并选择与你的系统最兼容的版本。如果你使用的是配备苹果处理器的 MacBook,请在搜索栏旁边保持 MLX 选项启用(这些版本针对苹果硬件进行了优化)。对于 Windows 或 Linux 系统,则选择 GGUF 选项。
  • 加载模型:下载完成后,前往 Local Models,选择 DeepSeek R1,并点击 Load
  • 启动本地服务器:在 Developer 选项卡中,启用 Start Server。它将在 http://localhost:1234 上运行模型。
  • 继续下一步集成到 VSCode

2. 使用 Ollama

  • 安装 Ollama:从 Ollama 官网下载并安装。

  • 下载模型:在终端中运行以下命令:

    bash复制

    ollama pull deepseek-r1
    

    如果你需要较小的模型版本,请访问 ollama.com/library/dee…,查看终端中需要运行的具体命令。

  • 启动服务器:在终端中执行以下命令:

    bash复制

    ollama serve
    

    该命令将在 http://localhost:11434 上运行模型。

  • 继续下一步集成到 VSCode

3. 使用 Jan

  • 下载并安装 Jan:在 Jan 官网选择适合你系统的版本进行下载和安装。
  • 下载模型:我没有在 Jan 中直接找到 DeepSeek R1,于是前往 Hugging Face 网站,手动搜索 “unsloth gguf deepseek r1”。找到所需的版本后,点击 “Use this model” 按钮并选择 Jan 作为选项。模型会自动在 Jan 中打开,然后我进行了下载。
  • 加载模型:下载完成后,选择该模型并点击 Load
  • 启动服务器:Jan 会自动启动服务器,通常运行在 http://localhost:1337 上。
  • 继续下一步集成到 VSCode

4. 集成到 VSCode

  • 安装扩展:在 VSCode 中,打开扩展选项卡并安装 Cline 或 Roo Code。

  • 为 Jan 或 LM Studio 配置扩展:Cline 和 Roo Code 的配置几乎完全相同。请按照以下步骤操作:

    • 点击扩展并进入 “Settings”
    • API Provider 中,选择 “LM Studio”
    • Base URL 字段中,输入你在 Jan 或 LM Studio 中配置的 URL。
    • 如果你只下载了一个模型,Model ID 字段将自动填充。否则,请手动选择你下载的 DeepSeek 模型。
    • 最后点击 “Done”
  • 为 Ollama 配置扩展

    • 点击扩展并进入 “Settings”
    • API Provider 中,选择 “Ollama”
    • Base URL 字段中,输入你在 Ollama 中配置的 URL。
    • 如果你只下载了一个模型,Model ID 字段将自动填充。否则,请手动选择你下载的 DeepSeek 模型。
    • 最后点击 “Done”

集成完成,现在你可以尽情享受 Cline 或 Roo Code 的强大功能了!

结语

对于那些希望免费使用强大人工智能的开发者来说,DeepSeek R1 绝对是一个救星。通过 LM StudioOllamaJan,你可以轻松地在本地运行它,并直接将其集成到 Visual Studio Code 中。选择适合你电脑的模型版本,立刻开始使用吧!