随着人工智能技术的飞速发展,本地化大模型运行平台 Ollama 也在持续进化。在最新发布的 Ollama v0.14.0 版本中,官方正式引入了对图像生成模型的支持,标志着 Ollama 从纯文本大模型平台迈向多模态 AI 工具的重要一步。其中,备受关注的图像生成模型 x/z-image-turbo 已上线 Ollama 官方模型库(ollama.com/x/z-image-t… macOS 用户带来高效、便捷的本地文生图(Text-to-Image)体验。
一、Ollama v0.14.0 的新特性:支持图像生成
此前,Ollama 主要聚焦于本地部署和运行大型语言模型(LLM),如 Llama 3、Phi-3、Gemma 等。而在 v0.14.0 版本中,Ollama 扩展了其架构,开始原生支持图像生成模型。这一更新不仅丰富了 Ollama 的功能生态,也让开发者和普通用户能够在无需联网、不依赖云端服务的前提下,在本地生成高质量图像。
目前,Ollama 官方明确指出:图像生成模型仅支持 macOS 平台(得益于 Apple Silicon 芯片强大的神经引擎和 Metal 加速能力)。Windows 和 Linux 用户暂时无法使用该功能。
二、x/z-image-turbo 模型简介
x/z-image-turbo[1] 是 Ollama 平台上首个官方支持的图像生成模型,具有以下特点:
- • 高效快速:基于优化后的扩散模型架构,生成速度显著优于同类开源模型。
- • 轻量级设计:提供多个版本,包括
:latest(13GB)、:fp8(13GB)和:bf16(33GB),用户可根据硬件条件选择。 - • 纯文本输入:通过自然语言提示词(prompt)即可生成图像,无需复杂配置。
- • 本地运行:所有计算在本地完成,保障隐私与数据安全。
⚠️ 注意:根据官方说明,该模型仅在 macOS 上可用,且建议使用搭载 Apple Silicon(M1/M2/M3)芯片的 Mac 设备以获得最佳性能。
三、如何使用 Ollama 生成图片?详细操作步骤
步骤 1:安装 Ollama v0.14.0 或更高版本
前往 Ollama 官网[2] 下载最新版客户端(macOS 版),并完成安装。可通过终端验证版本:
ollama --version
# 应显示 0.14.0 或更高
步骤 2:拉取 z-image-turbo 模型
打开终端,运行以下命令下载模型(默认为 :latest 版本):
ollama pull x/z-image-turbo
若希望使用更小内存占用的 FP8 版本,可指定标签:
ollama pull x/z-image-turbo:fp8
首次下载需约 13GB 存储空间,请确保磁盘有足够空间。
步骤 3:生成图像
使用 ollama run 命令配合文本提示词即可生成图片:
ollama run x/z-image-turbo "A cyberpunk cat wearing neon sunglasses, digital art"
执行后,模型将在本地进行推理,并自动将生成的图像保存为 PNG 文件,通常位于系统临时目录或当前工作目录下(具体路径可能因版本而异,部分版本会直接在终端内预览图像)。
在M4 Pro 48G配置上,生成这个图片花了大约85秒时间!
性能请自行评价!
💡 提示:生成时间取决于提示词复杂度和 Mac 硬件性能,M1/M2/M3 芯片通常可在 10–30 秒内完成一张 512x512 图像。
步骤 4(可选):集成到 Python 或 JavaScript 项目
Ollama 提供了 Python 和 Node.js SDK,开发者可通过 API 调用模型:
Python 示例(需安装 ollama 包):
import ollama
response = ollama.generate(
model='x/z-image-turbo',
prompt='A serene mountain lake at sunrise, photorealistic'
)
# 图像数据通常以 base64 或文件路径形式返回(具体取决于 API 实现)
注:截至 2026 年初,图像生成的 API 接口仍在完善中,建议参考 Ollama Python 文档[3] 获取最新用法。
Ollama v0.14.0 对图像生成的支持,是其迈向通用多模态 AI 平台的关键一步。x/z-image-turbo 模型凭借其易用性、高效性和本地化优势,为 macOS 用户打开了本地 AI 绘画的大门。尽管目前平台限制较多,但随着社区生态的发展,我们有理由期待 Ollama 在 Windows/Linux 上的图像生成支持,以及更多高质量多模态模型的加入。
未来,随着 Ollama 对多模态模型(如视觉-语言模型)的支持逐步完善,我们有望看到更多如“图像理解 + 文本生成”、“图文对话”等高级功能落地。
关于更多使用示例,请移步公众号进行查找!
推荐阅读:
5、别再乱下模型了!Ollama 用户必看的 GGUF 量化选择指南
7、让大模型“看见”现实:Dify/MaxKB×Spring AI MCP快速实战
8、实时、炫酷、零配置:GoAccess让Nginx日志秒变数据仪表盘
9、Ollama 发布v0.14系列更新,带来多语言翻译与图像生成新功能
欢迎关注公众号!
如果喜欢,别忘了点个【赞👍🏻】和【❤️推荐】哦~
你的每一次【点赞】与【推荐】,对我来说都是满满的鼓励!❤️