1、安装 Ollama(帮助我们在本地运行大模型)
//下载地址
https://ollama.com/download
.
2、下载 deepseek-r1
在终端执行下载命令:
ollama run deepseek-r1:14b
版本选择:
上述命令末尾的14b代表DeepSeek的一个版本,DeepSeek开放了1.5B, 7B, 8B, 14B, 32B, 和 70B几个版本,数字越大代表越智能,对电脑配置的要求也更高:
1.5B模型需至少8GB内存,7B需16GB,14B需32GB,32B需64GB,70B需128GB
a、示例
-
1.5b(大的不容易下载下来,很卡,先下载1.5b的试试水)
-
7b(下载包4.7G)
-
14b(下载包9G)
b、下载成功
.
3、Page Assist 扩展(打开Chrome下载)
a、下载 Page Assist
b、在Chrome的扩展程序列表中选择 Page Assist
c、选择需要使用的大模型
示例:deepseek-r1:1.5b
.
4、开启对话
直接在本地 Page Assist 扩展中开启对话就行了
资料:
一文看懂如何正确使用DeepSeek(本地部署DeepSeek)
Deepseek+anythingLLM部署大模型本地知识库(本地知识库)
手把手教你,通过魔塔社区本地部署 DeepSeek Janus Pro 多模态大模型(图像识别)
如果觉得本文有用,可以在下方点个赞。如果发现有遗漏或不对的地方,请在下方留言~