史上iPhone最强开源AI!Google Gemma 4

1 阅读7分钟

我最近刚给我的 iPhone 装了个「离线超强大脑」,断网、没信号、开飞行模式,照样能对话、写代码、分析长文 —— 它就是 Google 刚开源的 Gemma 4,靠手机自身 GPU 就能跑,比 Siri 好用 10 倍,直接把端侧 AI 的体验拉到新高度!为什么说他是最强呢,因为他的模型文件在本地,没有加密,哈哈!!!想不到吧,也就意味着我们可以拉取他的模型然后叠加自己的应用,会不多说进入正题,下面是安装截图:

图片合并.png

这个「大脑」的载体,是 Google 刚推出的 App——Google AI Edge Gallery(简称 Edge Gallery),说白了就是个「端侧 AI 应用商店 + 模型实测平台」。和其他需要复杂配置的本地 AI 不同,它不用刷系统、不用改代码,普通人打开就能用,核心就是跑 Google 4 月初刚发布的 Gemma 4 模型,全程离线,只占用 iPhone 自身的 GPU 资源,不耗流量、不泄露隐私。

说到 Gemma 4,真的要夸一句 Google 这次太良心!4 月初刚发布就炸了 AI 圈,上线当天直接冲上 Arena AI 开源模型榜单第三名🔥,在数学、编程、科学推理等多项基准测试中,硬生生超越了参数比它大十几倍的对手,现在已经和国内的 MiniMax M2.7、Qwen 3.6 等顶级开源模型站在同一水平线上,实力直接拉满。

image.png

可能有人会问,Edge Gallery 到底有啥用?对我们普通用户来说,它是「即装即用的本地 AI 神器」;对开发者来说,它更像一个「端侧 AI 试验场」—— 里面集成了最新的 Gemma 4 全系列模型,能直观看到模型在手机、平板上的真实性能,更关键的是,这次 Google 破天荒采用了Apache 2.0 开源许可证,这是它首次真正意义上下放商业使用权。

没有任何使用限制,不用开源衍生产品,你可以把 Gemma 4 集成进自己的商业 App,甚至闭源分发做商业化,以前 Google 可从来没这么大方过。随着手机软硬件能力越来越强,未来强 AI 真的不用再依赖云端,一部手机就能成为一个独立的推理平台,想想就觉得香!

Gemma 4 实测:小参数也能爆发出大能量

Gemma 4 一共有 4 个规格,我用 iPhone 15 Pro Max 实测了 E4B,只能说「刚刚好」—— 丝滑不卡顿,响应速度比预想中快太多,完全没有本地模型的滞后感。

image.png

最让人惊艳的是E2B 版本:仅 2.3B 参数,却在多项任务上追平了上一代 Gemma 3 27B(参数量差了整整 12 倍!),这意味着 2026 年,手机本地 AI 真的迎来了拐点,哪怕是老机型,也能轻松拥有媲美旗舰模型的体验。

而它的旗舰版本 31B,性能更是离谱 —— 一款消费级 GPU 就能跑起来,却能在实际任务中,和参数大十几倍的闭源模型掰掰手腕。我大胆预测,等 iPhone 17 Pro Max 发布后,跑这个版本绝对无压力,还能支持 Skill Agent,把做好的 Skill url 丢给它就能执行,唯一遗憾的是目前不支持 Python,用 JS 开发的技能倒是可以正常使用。

除此之外,Gemma 4 的硬实力也完全在线:

  • 支持最长 25.6 万 token 的上下文窗口(约 20 万字),能一次性读完一整篇论文、一份合同,长文分析再也不用分段处理;

  • 覆盖 140 多种语言,翻译、跨语言对话无压力,出国旅行、看外文资料直接封神;

  • 针对 Agent 工作流做了原生优化,多步骤规划、工具调用、记忆保持,这些以前只有云端大模型才有的能力,现在在 iPhone 本地就能轻松实现。

说真的,用这样的能力去替代 Siri,哪怕是断网状态下,也能实现「语音唤醒 + 智能响应」,这不比自带的 Siri 香多了?

3 分钟上手!iPhone 离线用 Gemma 4 教程

不用复杂操作,普通人跟着步骤来,3 分钟就能给 iPhone 装上这个「超强大脑」,全程免费、完全离线👇

  1. 打开 App Store,直接搜索「Google AI Edge Gallery」,下载安装(无门槛,所有兼容机型都能装);

  2. 打开 App 后,随便选一项能力(比如 AI Chat、Ask Image),进入后会提示下载模型,优先推荐 E4B 版本(体验更全面),老机型可以选 E2B 轻量版;

  3. 模型大小约 2-4GB,建议连 Wi-Fi 下载,下载完成后自动加载,关闭所有网络、开飞行模式也能正常使用,支持对话、推理、文本生成等所有核心功能。

哪些设备能装?对号入座✅

  • 推荐机型:iPhone 15 Pro 及以上(跑 E4B 丝滑无压力,体验拉满);

  • 兼容机型:iPhone 14 Pro 系列(可运行 E2B 轻量版,日常使用足够);

  • 平板兼容:iPad 同样能安装,离线使用体验和 iPhone 一致,大屏看长文、做推理更舒服。

日常能用它干啥?刚需全覆盖💪

image.png

装完之后才发现,Gemma 4 真的能融入日常,再也不用依赖云端 AI:

  • 日常问答:查知识、问技巧、解难题,不用等网络,响应秒回,比百度还好用;

  • 办公助手:写文案、改邮件、审查代码、总结长文,打工人效率直接翻倍,还能离线编辑,飞机上也能赶方案;

  • 学习辅助:翻译外文、解析公式、梳理知识点,学生党、职场学习者必备;

  • 隐私场景:处理合同、病历、私人日记等敏感内容,所有数据本地处理,不上传服务器,安全感拉满;

  • 长文处理:20 万字上下文窗口,一次性分析完整篇报告、小说,提炼核心要点,省时间又高效。

不止是一个模型,更是端侧 AI 的转折点

2026 年开年以来,MiniMax M2.7、Kimi K2.5、GLM 5、Qwen 3.6 等国产开源模型相继登场,而 Google Gemma 4 的加入,让这场开源 AI 的竞争变得更加激烈。

要知道,Google 以前的精力都放在 Gemini 云端模型上,这次 Gemma 4 的效能和开放性,确实让人刮目相看。它的出现,不仅改变了我们对手机 AI 的认知,更给整个行业带来了新的可能:

对普通用户来说,终于有了一款「不掉线、强隐私、零成本」的手机 AI 助手,不用再为会员付费、不用担心里程碑、不用受网络限制; 对开发者来说,Apache 2.0 协议让端侧 AI 商业化无后顾之忧,不用再担心法律风险,能更自由地将 AI 能力集成到自己的产品中; 对整个行业来说,端侧 AI 的时代,比我们想象中来得更快 —— 当强 AI 能轻松跑在手机上,未来的智能终端,或许会从「工具」真正进化为「随身智能伙伴」。

最后想问一句:你最想用 iPhone 本地 AI 来做什么?是写文案、查资料,还是离线翻译?评论区聊聊你的需求,抽 1 位朋友,手把手教你安装调试👇

毕竟,能把强 AI 装在口袋里,断网也能自由使用,这种体验,谁用谁香啊!

题外话:之前我准备用Qwen/Qwen2.5-0.5B-Instruct 的模型部署在手机本地再接入APP,没想法到Google 抢了先,后面看情况是否要将Qwen2.5的手机本地部署,有兴趣的同学可以私聊我。

看完大家大家现在是不是感觉没有具体的切入点,接下来我将我精心整理的AI各个赛道的案例和手把手实操的视频放到我的云盘,大家关注“老猫聊AI”评论即可免费获取

image.png