Ollama 0.14.0 引入图片生成能力:体验z-image-turbo模型

379 阅读5分钟

  随着人工智能技术的飞速发展,本地化大模型运行平台 Ollama 也在持续进化。在最新发布的 Ollama v0.14.0 版本中,官方正式引入了对图像生成模型的支持,标志着 Ollama 从纯文本大模型平台迈向多模态 AI 工具的重要一步。其中,备受关注的图像生成模型 x/z-image-turbo 已上线 Ollama 官方模型库(ollama.com/x/z-image-t… macOS 用户带来高效、便捷的本地文生图(Text-to-Image)体验。

图片

一、Ollama v0.14.0 的新特性:支持图像生成

此前,Ollama 主要聚焦于本地部署和运行大型语言模型(LLM),如 Llama 3、Phi-3、Gemma 等。而在 v0.14.0 版本中,Ollama 扩展了其架构,开始原生支持图像生成模型。这一更新不仅丰富了 Ollama 的功能生态,也让开发者和普通用户能够在无需联网、不依赖云端服务的前提下,在本地生成高质量图像。

目前,Ollama 官方明确指出:图像生成模型仅支持 macOS 平台(得益于 Apple Silicon 芯片强大的神经引擎和 Metal 加速能力)。Windows 和 Linux 用户暂时无法使用该功能。

二、x/z-image-turbo 模型简介

x/z-image-turbo[1] 是 Ollama 平台上首个官方支持的图像生成模型,具有以下特点:

  • • 高效快速:基于优化后的扩散模型架构,生成速度显著优于同类开源模型。
  • • 轻量级设计:提供多个版本,包括 :latest(13GB)、:fp8(13GB)和 :bf16(33GB),用户可根据硬件条件选择。
  • • 纯文本输入:通过自然语言提示词(prompt)即可生成图像,无需复杂配置。
  • • 本地运行:所有计算在本地完成,保障隐私与数据安全。

⚠️ 注意:根据官方说明,该模型仅在 macOS 上可用,且建议使用搭载 Apple Silicon(M1/M2/M3)芯片的 Mac 设备以获得最佳性能。

三、如何使用 Ollama 生成图片?详细操作步骤

步骤 1:安装 Ollama v0.14.0 或更高版本

前往 Ollama 官网[2] 下载最新版客户端(macOS 版),并完成安装。可通过终端验证版本:

ollama --version
# 应显示 0.14.0 或更高

步骤 2:拉取 z-image-turbo 模型

打开终端,运行以下命令下载模型(默认为 :latest 版本):

ollama pull x/z-image-turbo

若希望使用更小内存占用的 FP8 版本,可指定标签:

ollama pull x/z-image-turbo:fp8

首次下载需约 13GB 存储空间,请确保磁盘有足够空间。

步骤 3:生成图像

使用 ollama run 命令配合文本提示词即可生成图片:

ollama run x/z-image-turbo "A cyberpunk cat wearing neon sunglasses, digital art"

执行后,模型将在本地进行推理,并自动将生成的图像保存为 PNG 文件,通常位于系统临时目录或当前工作目录下(具体路径可能因版本而异,部分版本会直接在终端内预览图像)。

image.png

在M4 Pro 48G配置上,生成这个图片花了大约85秒时间!

性能请自行评价!

💡 提示:生成时间取决于提示词复杂度和 Mac 硬件性能,M1/M2/M3 芯片通常可在 10–30 秒内完成一张 512x512 图像。

步骤 4(可选):集成到 Python 或 JavaScript 项目

Ollama 提供了 Python 和 Node.js SDK,开发者可通过 API 调用模型:

Python 示例(需安装 ollama 包):

import ollama

response = ollama.generate(
    model='x/z-image-turbo',
    prompt='A serene mountain lake at sunrise, photorealistic'
)
# 图像数据通常以 base64 或文件路径形式返回(具体取决于 API 实现)

注:截至 2026 年初,图像生成的 API 接口仍在完善中,建议参考 Ollama Python 文档[3] 获取最新用法。

Ollama v0.14.0 对图像生成的支持,是其迈向通用多模态 AI 平台的关键一步。x/z-image-turbo 模型凭借其易用性、高效性和本地化优势,为 macOS 用户打开了本地 AI 绘画的大门。尽管目前平台限制较多,但随着社区生态的发展,我们有理由期待 Ollama 在 Windows/Linux 上的图像生成支持,以及更多高质量多模态模型的加入。

未来,随着 Ollama 对多模态模型(如视觉-语言模型)的支持逐步完善,我们有望看到更多如“图像理解 + 文本生成”、“图文对话”等高级功能落地。

关于更多使用示例,请移步公众号进行查找!

推荐阅读

1、最全的Ollama使用详解

2、大模型训练与推理硬件配置指南

3、大模型服务之vLLM-构建OpenAI兼容服务器基础

4、大模型服务之vLLM(17)-性能优化与调优

5、别再乱下模型了!Ollama 用户必看的 GGUF 量化选择指南

6、文生图模型Z-Image零基础上手指南:本地部署与实战

7、让大模型“看见”现实:Dify/MaxKB×Spring AI MCP快速实战

8、实时、炫酷、零配置:GoAccess让Nginx日志秒变数据仪表盘

9、Ollama 发布v0.14系列更新,带来多语言翻译与图像生成新功能

1.jpg

欢迎关注公众号!

如果喜欢,别忘了点个【赞👍🏻】和【❤️推荐】哦~
你的每一次【点赞】与【推荐】,对我来说都是满满的鼓励!❤️