Ollama安装基础教程

319 阅读2分钟

一、Ollama是什么?

Ollama是一个支持跨平台部署的开源大语言模型(LLM)管理工具,提供本地模型运行、云端模型调用及开发者友好的API接口,适用于代码补全、智能问答等场景。 Ollama核心功能与应用场景

  • 跨平台支持:支持Windows/macOS/Linux系统,提供云端模型(如gpt-oss、deepseek-v3.1等)与本地私有模型的混合部署。‌
  • 开发集成:通过REST API(默认端口11434)与Spring Boot等技术栈无缝对接,支持代码补全、问答系统构建。‌
  • 模型管理:内置Modelfile格式统一管理模型权重与配置,支持热加载切换模型

二、下载 Ollama

  1. 打开浏览器,访问 Ollama 官方网站:ollama.com/
  2. 点击页面中的  "Download for macOS"  按钮,下载适用于 macOS 的安装包(.dmg 格式),根据系统选择对应的安装包进行下载,如下图。

image.png

三、安装 Ollama

  1. 找到下载完成的 Ollama.dmg 文件(通常在「下载」文件夹中),双击打开
  2. 在弹出的安装窗口中,将 Ollama 图标拖拽到「应用程序(Applications)」文件夹中,完成安装
  3. 安装完成后,Ollama 会自动在后台启动(无需手动打开应用图标)

四、验证安装

Ollama 主要通过命令行操作,验证步骤如下:

  1. 打开「终端」应用(可通过 Spotlight 搜索 终端 或在「应用程序 - 实用工具」中找到)

  2. 在终端中输入以下命令,检查 Ollama 是否正常运行:

    bash

    ollama --version
    

    若安装成功,会显示类似以下版本信息(版本号可能不同):

    image.png

  3. 进一步验证功能:尝试拉取并运行一个基础模型(以轻量的 deepseek-r1:1.5b 为例)

    bash

    ollama run deepseek-r1:1.5b
    
    • 首次运行会自动下载模型(约 1.1GB,需等待下载完成)
    • 下载完成后,会进入交互模式,显示 >>> 提示符
    • 此时可输入问题进行测试,例如输入 你是谁?,模型会返回回应,如下图
    • 输入 /bye 可退出交互模式

    image.png

五、常见问题

  • 若终端提示 command not found: ollama

    1. 检查 Ollama 是否已正确安装到「应用程序」文件夹
    2. 重启终端后再次尝试
    3. 若仍有问题,可手动添加路径:export PATH="$PATH:/Applications/Ollama.app/Contents/MacOS"
  • 模型下载缓慢:可尝试更换网络环境,或使用支持加速的网络

通过以上步骤,即可完成 Ollama 在 macOS 上的安装与验证,开始使用本地大模型进行交互。