值得注意的是,这次 Gemma 4 的几款模型非常有代表性。
首先是,26B 的 MoE(混合专家)模型,以及 31B 的 Dense(稠密)模型。
定位是让你在 PC 上就能在完全可控的本地环境中运行最先进的推理与编程流程,无需将数据上传到外部。
其中,26B MoE(激活参数 3.8B)速度极快,而 31B 模型则针对输出质量进行了优化。
其次是,更为高效的 2B 和 4B 模型。这些模型在内存效率上进行了深度优化,为移动设备和物联网设备带来了全新的智能水平。
亮点在于,可以丝滑支持音频与视觉的融合处理,实现实时的"看见"和"听见",同时原生支持超过 140 种语言。
至于上下文窗口方面,Gemma 4 支持最高 25 万 token 的上下文窗口,Olivier 表示,这个长度足够用户直接丢进去一个完整的代码库,也适合多轮的智能体应用场景。
总结一句话,在后龙虾时代,谷歌这次开源的 Gemma 4,就是为智能体专门打造的!
一方面,它能够处理复杂逻辑、多步骤规划,以及智能体工作流,同时高效利用 token 来发挥其智能能力。
另一方面,它原生支持工具调用,让你可以构建能够替你规划和执行任务的智能体。
无需联网,浏览器也可以直接运行 几个小时前,Huggingface CEO Clement Delangue 亲自下场,发帖宣布通过HF transformers.js可在浏览器中100%本地运行Gemma 4模型,实现完全隐私保护且免费使用。
