库克卸任CEO,苹果换帅上热搜,Mac会成为AI Agent部署的新主场吗?

0 阅读6分钟

4月20日,苹果官方宣布了一个重磅消息:蒂姆·库克将卸任CEO转任执行董事长,硬件工程高级副总裁约翰·特努斯(John Ternus)将于9月1日正式接任。消息一出,国内外社交媒体讨论量直接拉满——毕竟苹果成立50年来,CEO只换过两次。

库克执掌苹果14年,做了两件定义时代的事:把苹果市值推上全球第一,以及主导了从Intel到Apple Silicon的芯片转型。而特努斯的背景更值得关注——他不是来自软件或服务线,而是苹果硬件工程的一把手,Apple Silicon芯片就是在他手里落地的。选一个硬件工程师当CEO,苹果在用这个人事决定表态:下一个十年,硬件创新仍然是核心。

这个信号放在AI行业的语境下格外有意思。过去几年,提到AI开发和部署,大家的第一反应几乎都是"NVIDIA显卡 + Windows/Linux"。Mac在AI这条线上的存在感一直很弱。但Apple Silicon正在改变这件事——越来越多的开发者开始在Mac上跑AI工作负载,而且不再只是"体验一下",而是能干正经活了。

借这个时间节点,我们想结合自身在Mac上做AI Agent的实践,聊聊Mac作为AI部署平台这件事——不是畅想未来,而是看看现在已经走到哪了。

Mac做AI,过去为什么不行?

这个问题其实不复杂。过去做AI开发有一个绕不开的前提:CUDA生态。NVIDIA的GPU + CUDA几乎垄断了AI训练和推理的基础设施,而Mac从来没有搭载过NVIDIA显卡(事实上苹果和NVIDIA在2016年之后就彻底分手了)。没有CUDA就意味着主流的深度学习框架(PyTorch、TensorFlow)对Mac的支持长期是二等公民——能装,但性能拉胯,很多功能还不支持。

所以做AI的人默认选Windows台式机或者Linux服务器,Mac顶多用来写代码,跑模型还得SSH到远程机器上。

Apple Silicon改变了什么?

2020年M1芯片发布是一个转折点。Apple Silicon的统一内存架构(Unified Memory Architecture)打破了传统的CPU-GPU分离模式——CPU和GPU共享同一块内存池,不需要在两者之间来回搬运数据。这个设计对AI推理有天然优势:

  • 没有显存瓶颈:传统GPU显存是独立的,跑大模型时经常遇到"模型太大显存不够"的问题。Mac的统一内存让32GB甚至更大的内存空间可以直接用于模型推理
  • 能效比突出:同等算力下功耗更低,MacBook可以在不插电的情况下跑模型,这对移动场景很友好
  • MLX生态起步:苹果专门推出了MLX框架,为Apple Silicon优化的机器学习推理库,PyTorch也开始正式支持MPS后端

从M1到M2到M3再到现在的M4,每一代在AI推理性能上都有明显提升。到了M4这一代,32GB RAM的Mac已经能够流畅运行不少过去只能在GPU服务器上跑的模型了。

一个实际例子:Mac上跑GUI Agent

说"Mac能跑AI"可能有点抽象,我们用自己的实践来做个说明。

GUI Agent是最近AI领域一个很火的方向——让AI直接看屏幕、理解界面元素、操作鼠标键盘,像人一样完成复杂的电脑操作。这类应用对实时性要求很高,需要模型在本地快速响应,是典型的"适合部署在Mac上"的场景。

我们开源的 Mano-P 就是一个专门为Mac打造的GUI Agent。名字里的"Mano"源自西班牙语的"手","P"代表Person,定位是AI for Personal。它采用纯视觉驱动的技术路线——不依赖系统API或DOM解析,直接通过屏幕截图理解界面,理论上能操作任何有图形界面的应用。

关键一点:全部运行在本地Mac上,数据不出设备

Mano-P 开源架构

在Mac上跑得怎么样?

这是大家最关心的问题——Apple Silicon上跑AI Agent,性能到底够不够用?

先看评测成绩。Mano-P 在两个主流GUI Agent评测中的表现:

OSWorld评测(GUI Agent领域权威的端到端评测框架):Mano-P 72B模型以58.2%准确率排名第一,第二名为45.0%,领先超过13个百分点。

WebRetriever Protocol I评测:Mano-P 拿到41.7分,同一评测中Gemini 2.5 Pro为40.9分,Claude 4.5为31.3分。

Mano-P Benchmark 总览

再看本地推理性能。Mano-P 4B量化模型(w4a16)在M4 Pro芯片上的实测数据:

指标数据
Prefill速度476 tokens/s
Decode速度76 tokens/s
峰值内存占用4.3GB

476 tokens/s的prefill和76 tokens/s的decode,对于GUI Agent的使用场景(下达任务→Agent执行→返回结果)来说完全够用。4.3GB的内存占用意味着32GB的Mac上跑Agent的同时,开着IDE、浏览器和一堆日常应用完全没压力。

硬件要求:Apple M4芯片 + 32GB RAM

技术路线简介

Mano-P 的技术架构有几个值得关注的设计:

训练框架:采用双向自强化学习,三阶段递进——SFT(监督微调)→ 离线强化学习 → 在线强化学习。

推理机制:think-act-verify循环。先分析屏幕状态规划操作,执行后再验证结果是否符合预期。这个设计让Agent在遇到弹窗、加载延迟等意外情况时能自我纠错。

核心能力:复杂GUI自动化、跨系统数据整合、长任务规划执行、智能报告生成。

安装很简单,一行brew搞定:

brew tap HanningWang/tap && brew install mano-cua

项目基于Apache 2.0协议开源,GitHub:github.com/Mininglamp-…

Mac做AI的生态在变

Mano-P 是我们的实践,但它只是一个缩影。更大的图景是,Mac上的AI生态正在快速成型:

  • MLX框架让开发者可以用熟悉的方式在Apple Silicon上高效跑模型
  • Ollama、LM Studio 等工具让在Mac上跑开源大模型变得像装app一样简单
  • Core ML 持续优化,苹果自己在推动端侧AI的基础设施

过去,"做AI必须用Windows/Linux + NVIDIA"几乎是行业共识。现在这个共识正在松动——不是说Mac要取代GPU服务器做大规模训练,而是在推理部署、个人开发、端侧应用这些场景上,Mac正在成为一个越来越现实的选择。

苹果选了一个硬件工程师当CEO,Mac的AI能力还会继续往上走。我们在Mac上构建GUI Agent的过程中已经感受到了这个趋势,也期待更多开发者加入这个方向。


想和大家交流: 你在Mac上跑过哪些AI应用?用下来感觉和Windows/Linux环境差距大吗?欢迎在评论区聊聊。如果对Mano-P感兴趣,欢迎到GitHub上试用和反馈。