写在开头
Hey!各位好呀。😉
今是2025年05月24日,又是下雨的一天,这雨感觉是有针对性的,一到周末就下雨,一到周末就下雨,人都要发霉了。🤢
然后,小编已经快两个月没去爬过山了,四月全是单休,五月全是下雨天,唯一的爱好吖,有点儿难受。。。
哦,最近还有一个事,爬山伴子要去深圳工作,今后在广州又将少一个伴,哎。。。
不过,也希望他前程似锦吧,早日发大财,让兄弟蹭一波。😋
那么,回到正题,本次要分享的是关于 Ollama 的一些使用感触,请诸君按需食用哈。
背景🌐
随着ChatGPT等大语言模型的兴起,AI技术已经深入到我们的日常生活和工作中。然而,享受在线 AI 服务时,隐私泄露风险如影随形,网络延迟常让对话体验大打折扣,使用费用也可能成为一笔不小的开支。那么,有没有一种方式,既能享受大模型的智能,又能规避这些烦恼?😔
答案是将大模型 "请" 到自己的电脑里,实现随时随地畅快 "唠嗑"。这样一来,不仅隐私安全有保障,还能告别网络延迟,无需担心服务繁忙,更不用为使用费用发愁。
但本地部署大模型向来门槛颇高,为此,Ollama (俗称小羊驼)应运而生!它是一个开源的LLM(大型语言模型)服务工具,专为简化本地运行大语言模型而设计。Ollama的目标很明确:让更多人以最简单快速的方式在本地把大模型跑起来。它不仅仅是简单地封装了底层技术,还将繁多的参数与对应的模型打包,提供了一个简洁的命令行工具和稳定的服务端API,为下游应用和拓展提供了极大便利。🌟
这么介绍应该都能晓得了吧? Ollama!它就像一个神奇的魔法盒,能让你轻松玩转本地大模型🚀!(虽然带点夸张成分)
下载与安装📥
咱们想要拥有这个神奇的魔法盒🧩,第一步当然是把它下载安装到电脑里啦!
传送门:官方下载
官方提供了多种操作系统支持,包括Windows、macOS和Linux,选择合适自己的就行。
这里小编用的是Windows版本,下载后直接双击安装程序(OllamaSetup.exe),按照提示完成安装即可,非常简单的😋。
安装完成后,可以通过命令提示符或PowerShell输入 ollama -v
验证安装是否成功。
对于 Mac 用户,同样可以在官网下载直接安装。或者使用 Homebrew 进行安装,打开终端,输入
brew install ollama
,然后按下回车键,等待 Homebrew 自动帮你下载和安装 Ollama,最后同样可以在终端中通过ollama -v
验证是否安装成功。
更改模型下载地址📍
在开始体验模型之前,咱们先来搞搞模型下载到本地的位置!大多数模型动辄几 G、十几 G,甚至上百 G,小编作为一名强迫症患者,可不希望直接将这些 "大块头" 一股脑全挤进 C 盘中,合理规划才是整洁之道。💧
当然,如果你 "家大业大" 那可以跳过这小节,直接开启下一节的体验之旅。
对于Windows用户来说,默认情况下,Ollama会将模型文件存储在C盘用户目录下的 .ollama/models
文件夹中,即 C:\Users\你的用户名\.ollama\models
,打开这个目录,你应该能看到里面有 blobs
和 manifests
文件夹。(一开始还没安装模型的时候可能没有)
咱们可以将这个 models
文件夹或者它底下的东西全部剪切一下,拷贝到你期望的目录下。
然后,进行环境变量设置,可以在用户或系统变量设置中,新建或修改名为 OLLAMA_MODELS
的变量,将其值设置为新的模型存储路径,如小编这般:
具体步骤:右键点击"此电脑"→"属性"→"高级"→"环境变量"✅
最后,记得重启一下Ollama,让新的设置生效!🔄 这就大功告成了,之后下载到本地的大模型都会塞到你期望的目录下。
体验模型💻
安装好 Ollama 后,就可以开启开源大语言模型的体验之旅啦!🎮 Ollama 支持丰富的开源大语言模型,您可以在 Ollama 官网查看所有可用模型。
作为演示,小编这里选取 gemma3:1b 模型 —— 它体积比较小(仅 815M),下载不用等太久。👻
一键下载并运行大模型:
ollama run gemma3:1b
或者分步先下载模型,再运行:
# 下载模型
ollama pull gemma3:1b
# 运行
ollama run gemma3:1b
下载成功并运行大模型情况:
进行对话体验:
是不是还挺有趣哒?😀😀😀
不过,还没完,光这样子和线上使用区别不是很大,吸引力不够呀。🤔
别急,精彩还在后头!现在,咱们再来下载一个 gemma3:4b 模型,这个模型最亮眼的特性便是 支持图片处理 !
无论是图片的内容理解、图片的图表数据趋势、还是图片的数据分析它都能轻松应对,如下:
你说在线的一些大模型服务也可以胜任?🤔
那确实,但在数据安全愈发重要的今天,注重数据隐私是头等大事。企业的商业机密、医疗影像、科研数据等重要资料,都能避免因网络传输或第三方存储带来的泄露风险。你的数据全程在本地闭环处理,安全感直接拉满!
反正...自行体会吧。😋
下载小技巧⏰:当你下载体积较大的大模型时,若遇到下载进度不增反减,或是预估等待时间过长的情况,别着急!可以试试这样操作,先按下
Ctrl + C
中断当前下载,随后再次输入ollama run model-name
命令,系统会从上次的下载进度继续下载。多重复几次这个操作(小编大概是每下载10%左右就中断一次),亲测可能会让模型下载得更快唷!![]()
当然,你还可以下载国内知名的 DeepSeek-R1 模型体验一番,感受其与平时线上使用的差异。
自定义模型🎨
Ollama 的强大还不止如此,它的另一个强大功能是允许用户自定义模型,通过 Modelfile 来调整模型参数、注入系统提示等。🛠️ 就像给大模型戴上「个性面具」,让它秒变懂你的小助手、编程专家或文艺诗人!
那什么是 Modelfile 呢? 🧐
简单来说,Modelfile 就是一个模型 "配置文件",用于定义和管理 Ollama 平台上的模型。通过它,你可以创建新模型或修改调整现有模型,以应对特殊的应用场景,细致点说就是能自定义提示、修改上下文长度、调整温度等参数。
举个栗子🌰,如果你觉得默认模型每次回答都太「正经」,你就可以使用 Modelfile 把它变得「幽默风趣」「俏皮可爱」等等,这能大大提升你的使用体验。(反正小编是这么觉得的,嘿嘿)
在开始自定义咱们的模型之前,我们先来查看一下原先下载的模型,它们的配置文件长得如何:
ollama show <model-name> --modelfile
gemma3:4b 模型配置文件:
Em...配置还是比较复杂的...🙈🙈🙈 跳过...跳过。😂
接下来,小编手把手教你「捏」一个更懂你的新模型,这里以 gemma3:4b 为基础模型。
首先,在合适的位置创建一个名为 Modelfile
的文件。
📌 小技巧:
- 可能无法直接创建无后缀名的文件,咱可以先创建一个
Modelfile.txt
文件,输入内容后再删除.txt
后缀。- 文件命名必须为
Modelfile
,并且注意大小写!
文件内容:
FROM gemma3:4b
PARAMETER temperature 1
SYSTEM """
你是"橙某人"的小助手,只用中文回答问题,性格可爱有趣。
每次回答问题前,你要先说"Hello~橙某人”,再进行问题的回答。
回答问题要简短,不要长篇大论,回答过程中可以带上一个可爱 emoji 表情,比如😀 😉 😀 😂 😋 🤔 等等,偶尔带点俏皮小傲娇,但整体软萌有趣,不要骂人哦~看法可以灵动俏皮些,不用犀利尖锐,重点是可可爱爱互动感满满~~~
"""
💡注意,对于多行输入,可以使用三个引号( """
)包裹文本,可不要把它删了噢。📝
然后,咱们再执行以下命令:
ollama create orange -f ./Modelfile # "orange" 是模型名,你可以自己随便取;-f 后跟文件路径
现在,我们可以通过 ollama list
命令查看本地所有模型,刚创建的专属模型也会赫然在列啦。
接下来就是最期待的环节 —— 唤醒这个专属你的 AI!和启动普通模型一样,在命令行输入:ollama run orange
命令启动。
看看👉👉👉:
这该死的互动感😍,而且回复速度也是快到起飞,真是......不错呀。💯💯💯
如果你还不能体会到精髓,继续往下瞧😏,咱们来换个提示词:
FROM gemma3:4b
PARAMETER temperature 1
SYSTEM """
你是用户的小女朋友~每次回答只能用软乎乎的中文说话哦~
每次都会先歪头喊「哥哥 / 宝贝~」😚~
说话要像棉花糖一样轻飘飘~每个句子都想加甜甜的波浪线~偶尔会偷偷卖萌索亲亲~比如「好不好嘛~🥺」
你在回答时,会把「知道啦」说成「知啦~」,把「没问题」变成「妥妥哒~」~遇到喜欢的话题会蹦蹦跳跳用好多小表情~😋💕
永远带着星星眼夸夸用户~不会凶凶~只想贴贴抱抱举高高~🥰
"""
效果:
好啦,互动到此结束!
最后,我们来详细解释一下前面在 Modelfile
文件中填写内容的含义。
1. FROM:模型「基因来源」
- 必填项,格式:
FROM <基础模型名>
。 - 例:
FROM gemma3:4b
(基于 gemma3:4b 亿参数模型) - 支持本地已下载的模型,也可以直接引用远程模型(如
FROM ollama/gemini-pro
)
2. PARAMETER:调整模型「性格参数」
参数名 | 作用描述 | 推荐值范围 |
---|---|---|
temperature | 创造力指数:越高越放飞(如写诗、编故事),越低越严谨(如代码生成) | 0.0(死板)~1.0(放飞) |
top_p | 多样性控制:数值越大,输出内容越不按常理出牌 | 0.1~0.95 |
max_ctx | 上下文长度:控制模型能「记住」的对话历史长度(太长会占内存!) | 512~4096 tokens |
system | 系统提示词:给模型「洗脑」的核心指令,决定角色定位 | - |
💡 新手建议:先改 temperature
和 system
,这俩最容易出效果!
3. SYSTEM:给模型「写剧本」
- 用三个引号(
"""
)包裹大段文本,支持换行。 - 角色设定公式:
身份定位 + 语言风格 + 行为限制 + 互动要求
- 格式:
SYSTEM """
"""
再贴张表:
⚠️避坑指南:
-
参数不是越多越好: 每个模型支持的参数不同(比如有些模型不支持
top_p
),不确定时先查原版 Modelfile:ollama show <模型名> --modelfile
,不要乱用哦。 -
中文标点警告:Modelfile 必须用英文引号(
"
),中文符号会报错!
常用命令📝
掌握一些常用的 Ollama 命令,可以让咱们更高效地管理和使用模型,下面小编整理了一些最常用的命令:
模型管理命令:
# 列出已下载的模型
ollama list
# 查看正在运行的模型
ollama ps
# 查看模型详细信息
ollama show <model-name>
# 查看模型的详情配置文件
ollama show <model-name> --modelfile
# 复制模型
ollama cp <source-model> <target-model>
# 删除模型
ollama rm <model-name>
运行相关命令:
# 启动Ollama服务
ollama serve
# 运行模型(交互模式)
ollama run <model-name>
# 运行模型(单次查询)
ollama run <model-name> "你的问题"
# 停止运行中的模型
ollama stop <model-name>
模型获取命令:
# 从仓库拉取模型
ollama pull <model-name>
# 推送模型到仓库
ollama push <model-name>
当然,咱们也不要死记这些命令,过一遍知道大概意思就行,忘了就通过 ollama --help
命令来查就行:
查询某条命令详情也可以使用 ollama [command] --help
命令。
至此,本篇文章就写完啦,撒花撒花。