DeepSeek本地部署

87 阅读2分钟

下载安装ollama

ollma是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型而设计
可以帮助我们傻瓜式的部署本地大模型

它具有以下特点:

  • 本地运行: 模型完全在您的本地计算机上运行,无需联网,保护您的隐私和数据安全。
  • 简单易用: 通过简单的命令行指令,即可下载、运行和管理各种 LLM。
  • 模型丰富: 支持 Llama 2、Deepseek、Mistral、Gemma 等多种流行的开源模型。
  • 跨平台: 支持 macOS、Windows 和 Linux 系统。
  • 开放API:支持与OpenAI兼容的接口,可以和其他工具集成。

下载地址:ollama.com/download

下载模型

选择对应的模型,复制命令到cmd中执行

这样子本地部署就完成了,可以直接发送你想问的问题向他提问

使用CherryStudioAI 助力大模型

CherryStudio 是一款集多模型对话、知识库管理、AI 绘画、翻译等功能于一体的全能 AI 助手平台。 CherryStudio的高度自定义的设计、强大的扩展能力和友好的用户体验,使其成为专业用户和 AI 爱好者的理想选择。无论是零基础用户还是开发者,都能在 CherryStudio 中找到适合自己的AI功能,提升工作效率和创造力。

下载地址cherry-ai.com/download

CherryStudio有两种接入大模型的方法,可以使用DeepSeek官网提供的API密钥进行接入,也可以使用本地的大模型进行接入。

这里展示本地方法:

点击本地的

添加好后点击检查看是否连接成功

最后演示一下如何使用

点击添加助手,在选择本地的大模型就能使用了

使用page-list让本地大模型联网

GitHub地址:github.com/n4ze3m/page…

概述:

下载插件 page-list插件 这里以谷歌游览器为例。

谷歌下载插件需要魔法!

谷歌商店: https://chromewebstore.google.com/category/extensions?utm_source=ext_sidebar&hl=zh-CN

下载完后打开该插件就是这样,会检测到正在运行的Ollama

以今天天气怎么样为例,测试联网与未联网下大模型的回答:

未联网时:

开启联网后: