🤝和Ollama贴贴!解锁本地大模型的「私人订制」狂欢🎉

112 阅读11分钟

写在开头

Hey!各位好呀。😉

今是2025年05月24日,又是下雨的一天,这雨感觉是有针对性的,一到周末就下雨,一到周末就下雨,人都要发霉了。🤢

然后,小编已经快两个月没去爬过山了,四月全是单休,五月全是下雨天,唯一的爱好吖,有点儿难受。。。

哦,最近还有一个事,爬山伴子要去深圳工作,今后在广州又将少一个伴,哎。。。

img_v3_02ml_4056f234-122d-43de-8b6a-355ea5e75cdg.jpg

不过,也希望他前程似锦吧,早日发大财,让兄弟蹭一波。😋

那么,回到正题,本次要分享的是关于 Ollama 的一些使用感触,请诸君按需食用哈。

背景🌐

随着ChatGPT等大语言模型的兴起,AI技术已经深入到我们的日常生活和工作中。然而,享受在线 AI 服务时,隐私泄露风险如影随形,网络延迟常让对话体验大打折扣,使用费用也可能成为一笔不小的开支。那么,有没有一种方式,既能享受大模型的智能,又能规避这些烦恼?😔

答案是将大模型 "请" 到自己的电脑里,实现随时随地畅快 "唠嗑"。这样一来,不仅隐私安全有保障,还能告别网络延迟,无需担心服务繁忙,更不用为使用费用发愁。

但本地部署大模型向来门槛颇高,为此,Ollama (俗称小羊驼)应运而生!它是一个开源的LLM(大型语言模型)服务工具,专为简化本地运行大语言模型而设计。Ollama的目标很明确:让更多人以最简单快速的方式在本地把大模型跑起来。它不仅仅是简单地封装了底层技术,还将繁多的参数与对应的模型打包,提供了一个简洁的命令行工具和稳定的服务端API,为下游应用和拓展提供了极大便利。🌟

这么介绍应该都能晓得了吧? Ollama!它就像一个神奇的魔法盒,能让你轻松玩转本地大模型🚀!(虽然带点夸张成分)

下载与安装📥

咱们想要拥有这个神奇的魔法盒🧩,第一步当然是把它下载安装到电脑里啦!

传送门:官方下载

image.png

官方提供了多种操作系统支持,包括Windows、macOS和Linux,选择合适自己的就行。

这里小编用的是Windows版本,下载后直接双击安装程序(OllamaSetup.exe),按照提示完成安装即可,非常简单的😋。

安装完成后,可以通过命令提示符或PowerShell输入 ollama -v 验证安装是否成功。

image.png

对于 Mac 用户,同样可以在官网下载直接安装。或者使用 Homebrew 进行安装,打开终端,输入 brew install ollama,然后按下回车键,等待 Homebrew 自动帮你下载和安装 Ollama,最后同样可以在终端中通过 ollama -v 验证是否安装成功。

更改模型下载地址📍

在开始体验模型之前,咱们先来搞搞模型下载到本地的位置!大多数模型动辄几 G、十几 G,甚至上百 G,小编作为一名强迫症患者,可不希望直接将这些 "大块头" 一股脑全挤进 C 盘中,合理规划才是整洁之道。💧

当然,如果你 "家大业大" 那可以跳过这小节,直接开启下一节的体验之旅。

对于Windows用户来说,默认情况下,Ollama会将模型文件存储在C盘用户目录下的 .ollama/models 文件夹中,即 C:\Users\你的用户名\.ollama\models,打开这个目录,你应该能看到里面有 blobsmanifests 文件夹。(一开始还没安装模型的时候可能没有)

咱们可以将这个 models 文件夹或者它底下的东西全部剪切一下,拷贝到你期望的目录下。

然后,进行环境变量设置,可以在用户或系统变量设置中,新建或修改名为 OLLAMA_MODELS 的变量,将其值设置为新的模型存储路径,如小编这般:

具体步骤:右键点击"此电脑"→"属性"→"高级"→"环境变量"✅

image.png

最后,记得重启一下Ollama,让新的设置生效!🔄 这就大功告成了,之后下载到本地的大模型都会塞到你期望的目录下。

体验模型💻

安装好 Ollama 后,就可以开启开源大语言模型的体验之旅啦!🎮 Ollama 支持丰富的开源大语言模型,您可以在 Ollama 官网查看所有可用模型。

作为演示,小编这里选取 gemma3:1b 模型 —— 它体积比较小(仅 815M),下载不用等太久。👻

image.png

一键下载并运行大模型:

ollama run gemma3:1b

或者分步先下载模型,再运行:

# 下载模型
ollama pull gemma3:1b
# 运行
ollama run gemma3:1b

下载成功并运行大模型情况:

image.png

进行对话体验:

image.png

是不是还挺有趣哒?😀😀😀

不过,还没完,光这样子和线上使用区别不是很大,吸引力不够呀。🤔

别急,精彩还在后头!现在,咱们再来下载一个 gemma3:4b 模型,这个模型最亮眼的特性便是 支持图片处理 !

image.png

无论是图片的内容理解、图片的图表数据趋势、还是图片的数据分析它都能轻松应对,如下:

image.png

image.png

你说在线的一些大模型服务也可以胜任?🤔

那确实,但在数据安全愈发重要的今天,注重数据隐私是头等大事。企业的商业机密、医疗影像、科研数据等重要资料,都能避免因网络传输或第三方存储带来的泄露风险。你的数据全程在本地闭环处理,安全感直接拉满!

反正...自行体会吧。😋

下载小技巧⏰:当你下载体积较大的大模型时,若遇到下载进度不增反减,或是预估等待时间过长的情况,别着急!可以试试这样操作,先按下 Ctrl + C 中断当前下载,随后再次输入 ollama run model-name 命令,系统会从上次的下载进度继续下载。多重复几次这个操作(小编大概是每下载10%左右就中断一次),亲测可能会让模型下载得更快唷!

image.png

当然,你还可以下载国内知名的 DeepSeek-R1 模型体验一番,感受其与平时线上使用的差异。

image.png

自定义模型🎨

Ollama 的强大还不止如此,它的另一个强大功能是允许用户自定义模型,通过 Modelfile 来调整模型参数、注入系统提示等。🛠️ 就像给大模型戴上「个性面具」,让它秒变懂你的小助手、编程专家或文艺诗人!

那什么是 Modelfile 呢? 🧐

简单来说,Modelfile 就是一个模型 "配置文件",用于定义和管理 Ollama 平台上的模型。通过它,你可以创建新模型或修改调整现有模型,以应对特殊的应用场景,细致点说就是能自定义提示、修改上下文长度、调整温度等参数。

举个栗子🌰,如果你觉得默认模型每次回答都太「正经」,你就可以使用 Modelfile 把它变得「幽默风趣」「俏皮可爱」等等,这能大大提升你的使用体验。(反正小编是这么觉得的,嘿嘿)

在开始自定义咱们的模型之前,我们先来查看一下原先下载的模型,它们的配置文件长得如何:

ollama show <model-name> --modelfile

gemma3:4b 模型配置文件:

image.png

Em...配置还是比较复杂的...🙈🙈🙈 跳过...跳过。😂

接下来,小编手把手教你「捏」一个更懂你的新模型,这里以 gemma3:4b 为基础模型。

首先,在合适的位置创建一个名为 Modelfile 的文件。

📌 小技巧

  • 可能无法直接创建无后缀名的文件,咱可以先创建一个 Modelfile.txt 文件,输入内容后再删除 .txt 后缀。
  • 文件命名必须为 Modelfile,并且注意大小写!

文件内容:

FROM gemma3:4b
PARAMETER temperature 1
SYSTEM """
你是"橙某人"的小助手,只用中文回答问题,性格可爱有趣。
每次回答问题前,你要先说"Hello~橙某人”,再进行问题的回答。
回答问题要简短,不要长篇大论,回答过程中可以带上一个可爱 emoji 表情,比如😀 😉 😀 😂 😋 🤔 等等,偶尔带点俏皮小傲娇,但整体软萌有趣,不要骂人哦~看法可以灵动俏皮些,不用犀利尖锐,重点是可可爱爱互动感满满~~~
"""

💡注意,对于多行输入,可以使用三个引号( """ )包裹文本,可不要把它删了噢。📝

然后,咱们再执行以下命令:

ollama create orange -f ./Modelfile  # "orange" 是模型名,你可以自己随便取;-f 后跟文件路径

image.png

现在,我们可以通过 ollama list 命令查看本地所有模型,刚创建的专属模型也会赫然在列啦。

接下来就是最期待的环节 —— 唤醒这个专属你的 AI!和启动普通模型一样,在命令行输入:ollama run orange 命令启动。

看看👉👉👉:

image.png

这该死的互动感😍,而且回复速度也是快到起飞,真是......不错呀。💯💯💯

044B539C.jpg

如果你还不能体会到精髓,继续往下瞧😏,咱们来换个提示词:

FROM gemma3:4b
PARAMETER temperature 1
SYSTEM """
你是用户的小女朋友~每次回答只能用软乎乎的中文说话哦~
每次都会先歪头喊「哥哥 / 宝贝~」😚~
说话要像棉花糖一样轻飘飘~每个句子都想加甜甜的波浪线~偶尔会偷偷卖萌索亲亲~比如「好不好嘛~🥺」
你在回答时,会把「知道啦」说成「知啦~」,把「没问题」变成「妥妥哒~」~遇到喜欢的话题会蹦蹦跳跳用好多小表情~😋💕
永远带着星星眼夸夸用户~不会凶凶~只想贴贴抱抱举高高~🥰
"""

效果:

image.png

045146AF.gif

好啦,互动到此结束!

最后,我们来详细解释一下前面在 Modelfile 文件中填写内容的含义。

1. FROM:模型「基因来源」

  • 必填项,格式:FROM <基础模型名>
  • 例:FROM gemma3:4b(基于 gemma3:4b 亿参数模型)
  • 支持本地已下载的模型,也可以直接引用远程模型(如FROM ollama/gemini-pro

2. PARAMETER:调整模型「性格参数」

参数名作用描述推荐值范围
temperature创造力指数:越高越放飞(如写诗、编故事),越低越严谨(如代码生成)0.0(死板)~1.0(放飞)
top_p多样性控制:数值越大,输出内容越不按常理出牌0.1~0.95
max_ctx上下文长度:控制模型能「记住」的对话历史长度(太长会占内存!)512~4096 tokens
system系统提示词:给模型「洗脑」的核心指令,决定角色定位-

💡 新手建议:先改 temperature 和 system,这俩最容易出效果!

3. SYSTEM:给模型「写剧本」

  • 用三个引号(""")包裹大段文本,支持换行。
  • 角色设定公式
    身份定位 + 语言风格 + 行为限制 + 互动要求
  • 格式:
SYSTEM """  

"""  

再贴张表:

image.png

⚠️避坑指南:

  • 参数不是越多越好: 每个模型支持的参数不同(比如有些模型不支持 top_p),不确定时先查原版 Modelfile:ollama show <模型名> --modelfile,不要乱用哦。

  • 中文标点警告:Modelfile 必须用英文引号("),中文符号会报错!

常用命令📝

掌握一些常用的 Ollama 命令,可以让咱们更高效地管理和使用模型,下面小编整理了一些最常用的命令:

模型管理命令:

# 列出已下载的模型
ollama list

# 查看正在运行的模型
ollama ps

# 查看模型详细信息
ollama show <model-name>

# 查看模型的详情配置文件
ollama show <model-name> --modelfile

# 复制模型
ollama cp <source-model> <target-model>

# 删除模型
ollama rm <model-name>

运行相关命令:

# 启动Ollama服务
ollama serve

# 运行模型(交互模式)
ollama run <model-name>

# 运行模型(单次查询)
ollama run <model-name> "你的问题"

# 停止运行中的模型
ollama stop <model-name>

模型获取命令:

# 从仓库拉取模型
ollama pull <model-name>

# 推送模型到仓库
ollama push <model-name>

当然,咱们也不要死记这些命令,过一遍知道大概意思就行,忘了就通过 ollama --help 命令来查就行:

image.png

查询某条命令详情也可以使用 ollama [command] --help 命令。





至此,本篇文章就写完啦,撒花撒花。

image.png