今天我们介绍使用ollama搭配Anything LLM部署本地AI大模型。ollama是一个开源的大语言模型运行平台,你只需要一条命令就能下载并运行各种开源的AI模型,例如Meta公司的LLaMA、深度求索公司的DeepSeek、阿里巴巴的Qwen等。
·我们打开官网的下载页面,选择你的操作系统对应的版本,下载安装就行。我这里是Windows,我们选择Windows。下载完成后双击ollama进行安装。
·安装好后打开官网的模型页面这里,然后选择一个你想下载的模型,例如deepseek-r1模型。我们复制这一行ollama的命令,点击这里就可以。
·然后打开终端,输入刚才下载的命令,第一次运行时它会帮助你自动下载模型。下载完后就可以马上开始聊天了,就像你在用命令行版的ChatGPT一样简单。如果你觉得命令行麻烦,推荐使用Anything LLM。
·我们打开官网,选择下载多面板,双击下载的文件进行安装,下载后一路下一步就安装好了。
·首先打开Anything LLM,我们需要做一些配置。打开设置页面选择LLM,这里要确保我们选择的LLM的提供商是ollama。模型选择我们刚才下载的模型URL确保是11434。
·接下来我们新建Workspace,接下来我们就可以像ChatGPT一样聊天了。
·接下来我们介绍ollama常用的一些命令。打开终端,出入Ollama,可以看到常用的命令行run参数表示的是下载并运行一个模型。我们重新下载一个模型,例如我们下载一个阿里的qwen模型,2.5选择一个小参数的,我们运行这个命令,我们先退出这个模型聊天。
·接下来我们使用list命令查看已经安装的模型。我们可以看到我们已经安装了deepseek-r1和qwen2.5两个模型。PS命令表示查看当前正在运行的模型,这说明这两个模型现在都在我们的运行中。RM表示我们要删除某一个模型。
ollama rm,例如删除qwen,输入模型的名称,再看看,已经删除成功了。
最后给大家推荐几个好用的模型。
·如果是英文问答,推荐使用Meta公司的LLaMA。
·如果是中文问答,推荐使用DeepSeek和阿里的Qwen,以及阿里最新的QwQ这个大模型。
另外需要根据机器的显卡配置来选择大模型的参数。如果没有显卡,也可以使用CPU来运行,这时候选择参数最好小于1.5B的模型。可以看看这里,从这里可以选择参数。
·如果是RTX4060的8GB显存的显卡,推荐使用7B模型。
·如果是RTX407012GB显存,推荐使用14B的模型。
·如果是4090显卡,或者是A10显卡24G显存,这时可以尝试安装32B模型。
这里强烈推荐一个阿里巴巴最新的32B模型QwQ,它的智商已经可以媲美ChatGPT的最新的ChatGPT4o模型。
这期学会了怎么用ollama和Anything LLM在自己电脑上搭建AI助手,还知道了怎么选适合自己的模型。觉得内容不错的话,点个赞关注一下,顺便分享给需要的朋友。