deepseek如此火,必须用一把,然而在线使用第一次问答侥幸服务器连接成功,在线访问人数可能是在太多了,后面一直是这样的~
这就跟连续剧剧情卡一半,这烂片的时候不care,关键剧情的时候,这么卡住,情何以堪啊,一直刷新一直忙,肯定得想第二条出路了——本地部署起来。
ollama-本地运行大型语言模型的平台
1.开始安装。访问ollama官网。
2.解压,然后点开解压后的文件,根据提示先install ollama自身。
3.命令行去执行ollama run deepseek-r1。安装7B版本。如果想要别的版本,可以下拉选择其他的,选完会看到对应的命令行代码,复制后,到iTerm中执行。
这是执行中的状态截图。执行的非常慢,大概是我自身网络也不好,包又大~只能等!!!
持续时间很长,还会失败,我的破网装了8个小时,第一次失败了,第二次选择半夜无人时间,然后完成下载。成功后会有打印如下:
如果简陋版能忍受,那就控制台可以直接问答了。
直接输入问题就可以了。
如果想要更好看更方便的问答使用,就请看下一步,安装chatBox AI
Chatbox AI
1.去官网下载。
选择mac对应芯片的下载按钮,下载.dmg文件到本地后,就和其他应用一样安装即可。
2.安装好后,点击图标,打开。选择本地模型
3.选择本地安装的deepseek
4.选择本地服务器。首次会自动弹这个框,再修改就打开“设置”选项。
5.完成,开启对话
总结
安装完,愉快的使用起来~