OpenAI 的 Operator 和 Deep Research 还在灰度测试,开源社区已经坐不住了。近期,由清华大学电子工程系副教授代季峰与天桥脑科学研究院创始人陈天桥联合筹备的 MiroMind AI 团队,发布了开源深度研究 Agent——MiroThinker 1.5,号称不靠堆参数,而是靠反思来解决问题。
不同于以往模型单纯通过增加参数量来提升性能,MiroThinker 1.5 引入了交互式 Scaling(Interactive Scaling)的概念,让智能体在与环境的反复交互、试错和反思中提升解决复杂问题的能力。
MiroThinker 1.5 的技术突破
MiroThinker 1.5 的发布包含 30B 和 235B 两个参数规模,其核心逻辑在于将智能从模型内部扩展到外部世界,通过“推理-验证-修正”的循环来处理长程任务。
1. 交互式 Scaling 范式
目前的 LLM 大部分是做题家模式,即一次性输出答案。MiroThinker 则不仅依赖模型本身的知识,更强调在环境中进行多轮深度交互。
-
长程推理:支持 256K 上下文窗口,能够处理海量信息。
-
高频工具调用:单次任务支持高达 400 次工具调用,远超同类开源 Agent。
2. 性能表现
根据官方披露的数据,MiroThinker-v1.5-30B 版本以较小的参数量,在中文网页理解基准 BrowseComp-ZH 上超越了 Kimi-K2-Thinking,且推理成本仅为后者的二十分之一。
而更大规模的 235B 版本在 GAIA-Val-165(通用 AI 助手基准)上取得了 80.8% 的高分,在 HLE-Text 和 BrowseComp 等测试集中均处于第一梯队。
3. 时序敏感训练
为了解决预测类任务中的剧透幻觉,开发团队在训练中严格遵循因果律,确保模型“只能看过去,不能看未来”。这种设计使得 MiroThinker 在金融预测、市场趋势分析等场景下具备了真实的实战价值。所以它能成功预测 A 股涨停板和 GTA 6 的发布趋势。
极速安装指南
MiroThinker 是个重工具的 Agent,且官方要求 Python 3.10+ 。为了省去配置环境变量的麻烦,也不想因为版本冲突搞崩本地系统,建议直接用 ServBay 来接管 Python 环境,这也是最快跑通的路径。
第一步:准备 Python 环境
- 打开 ServBay,在「软件包」面板找到 Python。
- 选择 Python 3.10(或更高版本),点击绿色按钮安装。
- 安装完成后,Python 环境就已经就绪,不用再管 Path 变量。
第二步:拉取代码与依赖
环境准备就绪后,即可通过终端拉取代码并安装依赖:
# 克隆仓库
git clone https://github.com/MiroMindAI/MiroThinker
cd MiroThinker
# 进入 Agent 目录
cd apps/miroflow-agent
# 安装依赖 (确保已安装 uv)
uv sync
第三步:配置 API Key
MiroThinker 的强大能力依赖于外部工具(如搜索、代码执行)。需要复制配置文件并填入相应的 Key:
cp .env.example .env
在 .env 文件中,至少需要配置以下几项基础服务:
-
SERPER_API_KEY: 用于 Google 搜索。
-
JINA_API_KEY: 用于网页内容抓取和总结。
-
E2B_API_KEY: 提供安全的沙箱环境来执行 Python 代码。
-
SUMMARY_LLM: 用于信息提取的 LLM(可以使用轻量级模型如 Qwen3-14B)。
启动与运行
配置完成后,可以通过命令行运行一个简单的任务来测试 Agent 是否工作正常:
# 使用 uv 运行主程序
# 假设已在本地或远程部署了 LLM 服务 (如 vLLM 部署的 MiroThinker 模型)
uv run python main.py llm=qwen-3 agent=mirothinker_v1.5_keep5_max200 llm.base_url=http://localhost:61002/v1
如果本地显存跑不动 30B 模型,可以先用 API 模式(比如接 Claude 或 GPT)来体验它的思考流程。
# 使用 Claude (需配置 ANTHROPIC_API_KEY)
uv run python main.py llm=claude-3-7 agent=single_agent_keep5
写在最后
MiroThinker 1.5 给我的感觉是,开源社区终于开始在 System 2(慢思考)上发力了。虽然要配 Key 有点繁琐,但看着 Agent 在终端里一步步“推理-验证-修正”,确实能感觉到它和只会瞎编的大模型不一样。
如果你手头有复杂的调研任务,或者想研究怎么让 AI 不产生幻觉,用 ServBay 几分钟搭个环境跑跑看,绝对不亏。毕竟,能“承认自己不知道并去查证”的 AI,才是我们真正需要的。