零门槛部署大模型!这招让你的电脑秒变 AI 神器

139 阅读2分钟

为什么要本地部署一个大模型

之前觉得网站上部署的最高配版本的模型,没有必要在本地再部署一个了。而且部署模型对硬件的要求还挺高的。

但想到 AI 如果要应用到企业中的话,必定需要在本地部署模型,结合本地的知识库来提供服务。所以就想把整个流程熟悉一下,顺便分享出来,方便其他人学习和应用。

部署后,使用了一下,感觉效果还不错,而且现在一些模型对硬件成本已经没有那么高的要求了。所以推荐对 AI 感兴趣的朋友,都可以部署玩一下!

如何部署-Windows

在本地机器上部署大模型需要先下载一个叫做 Ollama 的东西,他提供了模型运行所需的环境。

访问官网:ollama.com,直接下载即可

Image

安装完之后,可以在命令行执行一下指令,看是否安装成功

Image

接下来选择要安装的模型

进入 models,可以看到可以下载的模型。有我们特别熟悉的 DeepSeek-R1,还有新出来的特别火的 qwen3。

Image

这里我们以 qwen3 最小的的 0.6b 模型为例(别小看 0.6b,它可是 6 亿参数的模型)。选择模型后,上面会出现右上角的安装/运行指令。

Image

Ollama 安装好之后,直接复制以上命令在 cmd 执行即可

Image

使用完,如何关闭对话

Image

下次如何运行该模型:打开 cmd,直接运行该命令即可

Image

如何部署-Mac

上面 Windows 介绍了通过官网下载,下载后直接运行即可。但在 mac 上,下载后竟然是个 。zip 文件,而不是 dmp 文件。

尝试使用多个解压缩后,要么收费,要么提示无法减压。最终我采取了第二种安装方式。

Image

通过 Homebrew 来安装 Ollama

安装 Homebrew(如果未安装)for mac

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

打开终端执行后续命令即可(后续都是直接输入命令,然后敲回车即可执行)

Image

通过 Homebrew 安装 Ollama

brew install ollama

启动 Ollama 服务(与 Windows 不同的是在 mac 上,需要先执行一下命令,ollama 服务才会运行)

ollama serve

安装并运行 qwen1.7b(如果本地不存在会先安装该模型)

ollama run qwen3:1.7b

Image

Mac 需要新开一个窗口来运行模型

Image

本地部署后,一个非常大的优点是提问不再受限于网络。只要打开命令行/终端,就可以直接和 AI 进行对话,非常方便。

除此以外,我们还可以在浏览器上查看 ollama 服务器是否启动。

Image

好了以上就是本次分享,安装中有任何问题,欢迎在评论区交流或私信我,如果觉得写得不错,不妨点个免费的小赞吧!