对于企业而言,调用 GPT、文心一言等在线大模型时,核心痛点永远是私密数据安全—— 业务数据、客户信息、内部文档一旦上传至第三方服务器,就存在泄露、合规违规的风险。而 Ollama 的出现,正是为企业提供了 “数据不出内网” 的本地大模型运行方案:无需复杂配置,一条命令即可在公司内网部署开源 LLM,所有数据本地处理,彻底规避隐私泄露风险。本文不再仅讲基础安装,而是从企业数据安全视角,详解 Ollama 的部署、配置与实战,适配企业私密数据处理场景。
一、Ollama特点
Ollama 是一款开源跨平台工具,核心价值是让用户用极简命令在本地快速部署、运行和管理开源大语言模型(LLM) ,无需复杂配置与依赖,主打隐私优先、本地离线运行与硬件自动适配,被称为 “LLM 领域的 Docker”。以下从核心定位、关键特性、核心功能、适用场景等维度展开介绍。
官网描述为 “Get up and running with large language models locally”,核心是封装底层推理、硬件调度与模型管理,降低本地 LLM 使用门槛,支持消费级硬件运行量化模型。
2023 年 6 月在 GitHub 上线,2023 年底推出首个稳定版,支持 Windows/macOS/Linux 全平台,2025 年已兼容 30 + 主流开源模型,开源协议为 MIT,社区活跃且持续迭代。
本地运行保障数据隐私、离线可用、低延迟,同时大幅简化部署流程,无需手动配置 CUDA、PyTorch 等依赖。
你公司要在本地运行一个LLM,开发者通常需要:
第一步:手动从Hugging Face下载模型权重。
第二步:编写复杂的Python脚本,使用transformers库加载模型。(我只懂java,还要硬着头皮学习Python)
第三步:处理繁琐的依赖、CUDA版本和硬件兼容性问题。(开发笔记本和linux各种兼容、Python版本、包依赖问题)
第四步:如果需要API服务,还需要额外使用FastAPI等框架进行封装。
Ollama的核心动机,就是将所有这些繁琐的步骤自动化和标准化,让开发者可以像运行一个Docker容器一样,用一条命令就启动并与一个大模型进行交互。其设计哲学是简单、可及、本地优先。
二、OllamaSetup win10 自定义安装目录
Ollama 的 Windows 安装包默认会安装到系统盘(通常是 C:\Users <你的用户名>\AppData\Local\Programs\Ollama),安装的时候指定其他文件夹。
1. 下载并解压 Ollama 安装包
- 先下载 Ollama 的 Windows 安装包:Ollama 官方下载(文件名为
OllamaSetup.exe)。
编辑
2. 移动文件到自定义目录
- 新建你想要的安装目录,比如
E:\ai\aicode; - 将解压得到的所有文件(主要是
OllamaSetup.exe)复制 / 剪切到这个自定义目录下
3.安装到自定义文件夹
按下 Win + R,输入 cmd,按住 Ctrl + Shift 并回车,以管理员身份打开 CMD:OllamaSetup.exe /DIR="E:\ai\aicode\Ollama"
编辑
4.OllamaSetup安装进度显示安装具体目录
编辑
5.OllamaSetup验证
OllamaSetup安装之后,选择模型,提问问题
编辑
6.查看模型默认下载目录
编辑
7.修改模型默认下载目录
编辑
三、Ollama常用命令
| 命令分类 | 具体命令 | 作用说明 | 示例 |
|---|---|---|---|
| 基础信息 | ollama -v / ollama version | 查看 Ollama 版本,验证安装是否成功 | ollama -v |
ollama help | 查看所有命令的帮助文档 | ollama help run | |
ollama list | 列出本地已下载的所有模型(含名称、ID、大小、修改时间) | ollama list | |
ollama show <模型名> | 查看模型的详细信息(描述、参数、模板等) | ollama show llama3 | |
ollama show <模型名> --modelfile | 查看模型的 Modelfile 配置内容 | ollama show llama3 --modelfile | |
| 模型运行 | ollama run <模型名> | 启动模型交互对话(无本地模型则自动拉取) | ollama run llama3 |
ollama run <模型名>:<版本标签> | 运行指定版本的模型 | ollama run llama3:8b-instruct-q4_0 | |
| 模型管理 | ollama pull <模型名> | 仅拉取模型到本地,不启动对话 | ollama pull llama3:7b |
ollama pull <用户名>/<模型名> | 拉取 Ollama 库中他人分享的自定义模型 | ollama pull username/my-llama | |
ollama rm <模型名> | 删除本地指定模型(可加版本标签删除单个版本) | ollama rm llama3:7b | |
ollama cp <原模型名> <新模型名> | 复制模型,用于重命名或创建自定义副本 | ollama cp llama3 my-custom-llama | |
| 服务控制 | ollama service install | 安装 Ollama 后台服务(首次部署需执行) | ollama service install |
ollama service start | 启动 Ollama 后台服务 | ollama service start | |
ollama service stop | 停止 Ollama 后台服务 | ollama service stop | |
ollama service restart | 重启 Ollama 后台服务 | ollama service restart | |
ollama service uninstall | 卸载 Ollama 后台服务(保留模型和程序) | ollama service uninstall | |
| 高级自定义 | ollama create <模型名> -f <Modelfile路径> | 基于 Modelfile 配置创建自定义模型 | ollama create my-llama -f ./Modelfile |
ollama push <模型名> | 将自定义模型推送到 Ollama 库(需先登录) | ollama push my-llama | |
ollama config show | 查看 Ollama 当前配置(存储路径、端口等) | ollama config show |
查看版本
编辑
查看运行的模型
编辑
运行某个模型E:\ai\aicode\Ollama>ollama run qwen3:4b
编辑
查看正在运行的模型ollama ps
编辑
查看模型信息ollama show qwen3:4b
编辑
四、寻找和下载模型
登录ollama官网ollama.com/,搜索自己想要的模型名字。
编辑
编辑
编辑