今天整理技术资料时,随手用 Gemma-4-31B-it 辅助尝试了一下,没抱太高期待,结果转头再看就惊喜到了——资料结构已经自动成型,后续我基本只需要微调,省了巨多事儿!
说真的,这体验和以往相比差别特别明显!过去的模型更像是单纯的段落生成工具,在连续任务中很容易出现结构断裂、上下文偏移的问题;但这次不一样,那些原本需要我手动逐步整理、衔接和重组的工作,它居然一次生成就完成!
这一点也能看出 Google DeepMind 推出的 Gemma 4 在能力取向上的明显变化。它基于与 Gemini 3 同源的技术体系,在参数规模相对可控的前提下,显著强化了长上下文建模与推理能力,同时支持函数调用与 system prompt,能更自然地嵌入到完整的任务流程中,适配性很强。
再简述一下它的具体功能,31B 版本支持图文输入和 256K 上下文,在复杂问答、代码辅助及智能体任务中,能力已接近 Qwen 3.5 397B 等更大规模的模型。最直观的变化是,模型不再只是单纯生成内容,而是能在一次交互中,承担起原本需要人工逐步推进、整合的工作,对打工人来说真的太实用了。
教程链接: go.openbayes.com/zWxBJ
使用云平台: OpenBayes
1.登录 OpenBayes.com,首先点击「公共教程」,找到「一键部署 gemma-4-31B-it」,单击打开。
2.页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。
3.在当前页面中看到的算力资源均可以在平台一键选择使用。平台会默认选配好原教程所使用的算力资源、镜像版本,不需要再进行手动选择。点击「继续执行」,等待分配资源。
4.若显示「Bad Gateway」,这表示模型正在加载中,请等待约 2-3 分钟后刷新页面即可;若显示「运行中」,点击「打开工作空间」。
使用步骤如下:
1.页面跳转后,点击左侧 README.ipynb 文件,进入后点击上方「运行」。
2.运行完成,即可点击右侧 API 地址跳转至 demo 页面。
3.输入想问的问题或图片,设置参数:
4.输入完成后点击运行,稍等片刻右侧结果框生成回答。