4月20日,苹果官方宣布了一个重磅消息:蒂姆·库克将卸任CEO转任执行董事长,硬件工程高级副总裁约翰·特努斯(John Ternus)将于9月1日正式接任。消息一出,国内外社交媒体讨论量直接拉满——毕竟苹果成立50年来,CEO只换过两次。
库克执掌苹果14年,做了两件定义时代的事:把苹果市值推上全球第一,以及主导了从Intel到Apple Silicon的芯片转型。而特努斯的背景更值得关注——他不是来自软件或服务线,而是苹果硬件工程的一把手,Apple Silicon芯片就是在他手里落地的。选一个硬件工程师当CEO,苹果在用这个人事决定表态:下一个十年,硬件创新仍然是核心。
这个信号放在AI行业的语境下格外有意思。过去几年,提到AI开发和部署,大家的第一反应几乎都是"NVIDIA显卡 + Windows/Linux"。Mac在AI这条线上的存在感一直很弱。但Apple Silicon正在改变这件事——越来越多的开发者开始在Mac上跑AI工作负载,而且不再只是"体验一下",而是能干正经活了。
借这个时间节点,我们想结合自身在Mac上做AI Agent的实践,聊聊Mac作为AI部署平台这件事——不是畅想未来,而是看看现在已经走到哪了。
Mac做AI,过去为什么不行?
这个问题其实不复杂。过去做AI开发有一个绕不开的前提:CUDA生态。NVIDIA的GPU + CUDA几乎垄断了AI训练和推理的基础设施,而Mac从来没有搭载过NVIDIA显卡(事实上苹果和NVIDIA在2016年之后就彻底分手了)。没有CUDA就意味着主流的深度学习框架(PyTorch、TensorFlow)对Mac的支持长期是二等公民——能装,但性能拉胯,很多功能还不支持。
所以做AI的人默认选Windows台式机或者Linux服务器,Mac顶多用来写代码,跑模型还得SSH到远程机器上。
Apple Silicon改变了什么?
2020年M1芯片发布是一个转折点。Apple Silicon的统一内存架构(Unified Memory Architecture)打破了传统的CPU-GPU分离模式——CPU和GPU共享同一块内存池,不需要在两者之间来回搬运数据。这个设计对AI推理有天然优势:
- 没有显存瓶颈:传统GPU显存是独立的,跑大模型时经常遇到"模型太大显存不够"的问题。Mac的统一内存让32GB甚至更大的内存空间可以直接用于模型推理
- 能效比突出:同等算力下功耗更低,MacBook可以在不插电的情况下跑模型,这对移动场景很友好
- MLX生态起步:苹果专门推出了MLX框架,为Apple Silicon优化的机器学习推理库,PyTorch也开始正式支持MPS后端
从M1到M2到M3再到现在的M4,每一代在AI推理性能上都有明显提升。到了M4这一代,32GB RAM的Mac已经能够流畅运行不少过去只能在GPU服务器上跑的模型了。
一个实际例子:Mac上跑GUI Agent
说"Mac能跑AI"可能有点抽象,我们用自己的实践来做个说明。
GUI Agent是最近AI领域一个很火的方向——让AI直接看屏幕、理解界面元素、操作鼠标键盘,像人一样完成复杂的电脑操作。这类应用对实时性要求很高,需要模型在本地快速响应,是典型的"适合部署在Mac上"的场景。
我们开源的 Mano-P 就是一个专门为Mac打造的GUI Agent。名字里的"Mano"源自西班牙语的"手","P"代表Person,定位是AI for Personal。它采用纯视觉驱动的技术路线——不依赖系统API或DOM解析,直接通过屏幕截图理解界面,理论上能操作任何有图形界面的应用。
关键一点:全部运行在本地Mac上,数据不出设备。

在Mac上跑得怎么样?
这是大家最关心的问题——Apple Silicon上跑AI Agent,性能到底够不够用?
先看评测成绩。Mano-P 在两个主流GUI Agent评测中的表现:
OSWorld评测(GUI Agent领域权威的端到端评测框架):Mano-P 72B模型以58.2%准确率排名第一,第二名为45.0%,领先超过13个百分点。
WebRetriever Protocol I评测:Mano-P 拿到41.7分,同一评测中Gemini 2.5 Pro为40.9分,Claude 4.5为31.3分。

再看本地推理性能。Mano-P 4B量化模型(w4a16)在M4 Pro芯片上的实测数据:
| 指标 | 数据 |
|---|---|
| Prefill速度 | 476 tokens/s |
| Decode速度 | 76 tokens/s |
| 峰值内存占用 | 4.3GB |
476 tokens/s的prefill和76 tokens/s的decode,对于GUI Agent的使用场景(下达任务→Agent执行→返回结果)来说完全够用。4.3GB的内存占用意味着32GB的Mac上跑Agent的同时,开着IDE、浏览器和一堆日常应用完全没压力。
硬件要求:Apple M4芯片 + 32GB RAM。
技术路线简介
Mano-P 的技术架构有几个值得关注的设计:
训练框架:采用双向自强化学习,三阶段递进——SFT(监督微调)→ 离线强化学习 → 在线强化学习。
推理机制:think-act-verify循环。先分析屏幕状态规划操作,执行后再验证结果是否符合预期。这个设计让Agent在遇到弹窗、加载延迟等意外情况时能自我纠错。
核心能力:复杂GUI自动化、跨系统数据整合、长任务规划执行、智能报告生成。
安装很简单,一行brew搞定:
brew tap HanningWang/tap && brew install mano-cua
项目基于Apache 2.0协议开源,GitHub:github.com/Mininglamp-…
Mac做AI的生态在变
Mano-P 是我们的实践,但它只是一个缩影。更大的图景是,Mac上的AI生态正在快速成型:
- MLX框架让开发者可以用熟悉的方式在Apple Silicon上高效跑模型
- Ollama、LM Studio 等工具让在Mac上跑开源大模型变得像装app一样简单
- Core ML 持续优化,苹果自己在推动端侧AI的基础设施
过去,"做AI必须用Windows/Linux + NVIDIA"几乎是行业共识。现在这个共识正在松动——不是说Mac要取代GPU服务器做大规模训练,而是在推理部署、个人开发、端侧应用这些场景上,Mac正在成为一个越来越现实的选择。
苹果选了一个硬件工程师当CEO,Mac的AI能力还会继续往上走。我们在Mac上构建GUI Agent的过程中已经感受到了这个趋势,也期待更多开发者加入这个方向。
想和大家交流: 你在Mac上跑过哪些AI应用?用下来感觉和Windows/Linux环境差距大吗?欢迎在评论区聊聊。如果对Mano-P感兴趣,欢迎到GitHub上试用和反馈。