随着 AI Agent 能力持续进化,大模型正在从「对话助手」逐渐变成真正能够执行任务的智能系统。近期,Mistral AI 发布的 Mistral Medium 3.5 再次将 AI Coding Agent 推向新的阶段。相比传统只能完成简单代码补全的编程助手,其已经能够在云端独立运行、并行处理任务,并持续完成复杂的软件开发流程,包括代码生成、调试、依赖安装、测试执行乃至 Pull Request 提交。
作为 Mistral 最新推出的旗舰级模型,Mistral Medium 3.5 采用 128B 稠密架构,拥有 256k 上下文窗口,并首次将指令遵循、推理与编码能力融合进单一模型之中。
与当前大量依赖 MoE 架构的大模型不同,Mistral 选择继续强化 Dense Model 路线,在保证推理稳定性的同时,进一步提升长时程任务处理能力。官方数据显示,Mistral Medium 3.5 在 SWE-Bench Verified 上取得了 77.6% 的成绩,超过 Devstral 2 以及 Qwen3.5 397B A17B 等模型,同时在 τ³-Telecom 等 Agent 能力测试中也展现出较强表现。
除了模型本身,此次更新更值得关注的是 Mistral 对 AI Agent 工作流的整体重构。通过 Vibe Remote Agents,开发者可以直接在云端运行异步 Coding Session,任务不再依赖本地电脑持续在线。用户既可以通过 CLI 发起任务,也能够直接在 Le Chat 中启动云端 Agent,让模型持续执行多步骤编码工作,包括模块重构、测试生成、CI 排查与 Bug 修复等。与此同时,新增的 Work Mode 还支持跨工具协同,能够调用邮件、日历、文档与协作平台等外部系统,逐步向真正的「执行型 AI 助手」演化。
某种程度上,Mistral Medium 3.5 所代表的,不只是一次模型升级,而是 AI Coding 从「Copilot」向「Autonomous Agent」转变的重要信号。过去,AI 更多承担辅助生成代码的角色;而现在,模型已经开始具备长时间执行任务、调用工具、管理流程与交付结果的能力。随着上下文长度、推理稳定性与 Agent Framework 的持续提升,未来的软件开发流程也可能因此发生新的变化。
目前,OpenBayes 官网已上线「Mistral Medium 3.5 128B:旗舰级融合模型」教程, 完成环境配置,进一步降低模型使用门槛。
在线运行链接
demo 运行示例
Demo 运行
01 Demo 运行阶段
1.登录 OpenBayes.com,在「公共教程」页面,搜索并选择「Mistral Medium 3.5 128B:旗舰级融合模型」教程。
2.页面跳转后,点击右上角「克隆」,将该教程克隆至自己的容器中。
3.选择「NVIDIA RTX PRO 6000 - 4」以及「vllm」镜像,点击「继续执行」。新用户使用下方邀请链接注册,即可获得满 ¥10 赠 ¥10 优惠券,更有机会获得 ¥15 赠金!
小贝总专属邀请链接(直接复制到浏览器打开):
4.等待分配资源,当状态变为「运行中」后,点击「打开工作空间」进入 Jupyter Workspace。
02 效果演示
1.页面跳转后,点击左侧 README.ipynb 文件,进入后运行文件。
2.待运行完成,根据 README.ipynb 提示启动 Open WebUI,待出现实心方块样式的「OPENWEBUI」ASCII 字符即代表启动完成。随后即可点击右侧 API 地址跳转至 demo 页面。
教程链接: