一、Ollama是什么?
Ollama是一个支持跨平台部署的开源大语言模型(LLM)管理工具,提供本地模型运行、云端模型调用及开发者友好的API接口,适用于代码补全、智能问答等场景。 Ollama核心功能与应用场景
- 跨平台支持:支持Windows/macOS/Linux系统,提供云端模型(如gpt-oss、deepseek-v3.1等)与本地私有模型的混合部署。
- 开发集成:通过REST API(默认端口11434)与Spring Boot等技术栈无缝对接,支持代码补全、问答系统构建。
- 模型管理:内置Modelfile格式统一管理模型权重与配置,支持热加载切换模型
二、下载 Ollama
- 打开浏览器,访问 Ollama 官方网站:ollama.com/
- 点击页面中的 "Download for macOS" 按钮,下载适用于 macOS 的安装包(.dmg 格式),根据系统选择对应的安装包进行下载,如下图。
三、安装 Ollama
- 找到下载完成的
Ollama.dmg文件(通常在「下载」文件夹中),双击打开 - 在弹出的安装窗口中,将 Ollama 图标拖拽到「应用程序(Applications)」文件夹中,完成安装
- 安装完成后,Ollama 会自动在后台启动(无需手动打开应用图标)
四、验证安装
Ollama 主要通过命令行操作,验证步骤如下:
-
打开「终端」应用(可通过 Spotlight 搜索
终端或在「应用程序 - 实用工具」中找到) -
在终端中输入以下命令,检查 Ollama 是否正常运行:
bash
ollama --version若安装成功,会显示类似以下版本信息(版本号可能不同):
-
进一步验证功能:尝试拉取并运行一个基础模型(以轻量的
deepseek-r1:1.5b为例)bash
ollama run deepseek-r1:1.5b- 首次运行会自动下载模型(约 1.1GB,需等待下载完成)
- 下载完成后,会进入交互模式,显示
>>>提示符 - 此时可输入问题进行测试,例如输入
你是谁?,模型会返回回应,如下图 - 输入
/bye可退出交互模式
五、常见问题
-
若终端提示
command not found: ollama:- 检查 Ollama 是否已正确安装到「应用程序」文件夹
- 重启终端后再次尝试
- 若仍有问题,可手动添加路径:
export PATH="$PATH:/Applications/Ollama.app/Contents/MacOS"
-
模型下载缓慢:可尝试更换网络环境,或使用支持加速的网络
通过以上步骤,即可完成 Ollama 在 macOS 上的安装与验证,开始使用本地大模型进行交互。