本地部署DeepSeek-R1(Ollama + DeepSeek-R1 + Page Assist)

640 阅读1分钟

1、安装 Ollama(帮助我们在本地运行大模型)

//下载地址
https://ollama.com/download

截屏2025-02-10 下午5.36.54.png

.

2、下载 deepseek-r1

在终端执行下载命令:
ollama run deepseek-r1:14b

版本选择:

上述命令末尾的14b代表DeepSeek的一个版本,DeepSeek开放了1.5B, 7B, 8B, 14B, 32B, 和 70B几个版本,数字越大代表越智能,对电脑配置的要求也更高:

1.5B模型需至少8GB内存,7B需16GB,14B需32GB,32B需64GB,70B需128GB
a、示例
  • 1.5b(大的不容易下载下来,很卡,先下载1.5b的试试水) 1.5b.png

  • 7b(下载包4.7G) 7b.png

  • 14b(下载包9G) 14b.png

b、下载成功

成功.png

.

3、Page Assist 扩展(打开Chrome下载)

a、下载 Page Assist

1.png

b、在Chrome的扩展程序列表中选择 Page Assist

2.png

c、选择需要使用的大模型

示例:deepseek-r1:1.5b 3.png

.

4、开启对话

直接在本地 Page Assist 扩展中开启对话就行了 4.png

资料:
一文看懂如何正确使用DeepSeek(本地部署DeepSeek) Deepseek+anythingLLM部署大模型本地知识库(本地知识库) 手把手教你,通过魔塔社区本地部署 DeepSeek Janus Pro 多模态大模型(图像识别)

如果觉得本文有用,可以在下方点个赞。如果发现有遗漏或不对的地方,请在下方留言~