MAC本地部署deepseek-r1

167 阅读2分钟

deepseek如此火,必须用一把,然而在线使用第一次问答侥幸服务器连接成功,在线访问人数可能是在太多了,后面一直是这样的~

image.png

这就跟连续剧剧情卡一半,这烂片的时候不care,关键剧情的时候,这么卡住,情何以堪啊,一直刷新一直忙,肯定得想第二条出路了——本地部署起来。

ollama-本地运行大型语言模型的平台

1.开始安装。访问ollama官网

image.png 2.解压,然后点开解压后的文件,根据提示先install ollama自身。 3.命令行去执行ollama run deepseek-r1。安装7B版本。如果想要别的版本,可以下拉选择其他的,选完会看到对应的命令行代码,复制后,到iTerm中执行。

image.png

这是执行中的状态截图。执行的非常慢,大概是我自身网络也不好,包又大~只能等!!! image.png 持续时间很长,还会失败,我的破网装了8个小时,第一次失败了,第二次选择半夜无人时间,然后完成下载。成功后会有打印如下:

image.png 如果简陋版能忍受,那就控制台可以直接问答了。

image.png 直接输入问题就可以了。 如果想要更好看更方便的问答使用,就请看下一步,安装chatBox AI

Chatbox AI

1.去官网下载。

image.png 选择mac对应芯片的下载按钮,下载.dmg文件到本地后,就和其他应用一样安装即可。 2.安装好后,点击图标,打开。选择本地模型

image.png 3.选择本地安装的deepseek

image.png 4.选择本地服务器。首次会自动弹这个框,再修改就打开“设置”选项。

image.png 5.完成,开启对话

image.png

总结

安装完,愉快的使用起来~