阶跃星辰最新模型 Step 3.5 Flash 2603,现已上线。面向所有 Step Plan 用户开放,欢迎体验!
这款模型是 Step 3.5 Flash 的优化版本,它在延续 Flash 系列高响应速度与低成本优势的基础上,带来以下体验提升:
- 新增 low think mode,可进一步降低相关场景下的 token 消耗并提升输出效率。
- 针对 Coding 框架与 Agent 框架进行优化训练,提升相应体验、稳定性和 token 效率。
从我们的测试来看,Step 3.5 Flash 2603 在默认推理模式(high)下,推理分数基本持平,token 消耗降低了 14% ;切换到 low think mode(低推理模式)后,推理分数略有下降,token 消耗则降低了 56% 。
我们发现,OpenClaw 用户使用 AI 的方式与众不同——尤其在 Agent 场景中,大量任务频率高但复杂度并不高。聪明的用户已经在做“按需分配”:复杂环节用重型模型,中间步骤和高频任务用轻量模型。没必要让每一个请求都去“深度思考”。
基于这一观察,我们在原本就以快见长的 Step 3.5 Flash 基础上,进一步提升了推理效率与灵活性——做到“快上加快”,且没有以牺牲智力为代价。
早期测试用户的反馈印证了这一点:
智能程度反而提高了,处理复杂任务时会主动修复报错,而非只是提示错误。
在某 Agent 生态伙伴的模型评测中,Step 3.5 Flash 在高频 Agent 场景中速度优势明显,总耗时仅为竞品模型的一半。
马上使用
Step 3.5 Flash 2603 已向所有 Step Plan 用户开放。
在订阅 Step Plan 后,您可以按照正常的方式使用这款模型,只需要切换模型为step-3.5-flash-2603。以下是使用OpenAI Chat Completions API 和 Anthropic Messages API 配置思考强度的示例。
openai-style
{
"model": "step-3.5-flash-2603",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant. Be concise, accurate, and structured."
},
{
"role": "user",
"content": "请解释为什么企业级 AI 应用里,延迟、稳定性和成本往往比单次回答的极限能力更重要。"
}
],
"temperature": 0,
"max_tokens": 250000,
"reasoning_effort": "low"
}
anthropic-style
{
"model": "step-3.5-flash-2603",
"max_tokens": 250000,
"thinking": {
"type": "enabled",
"budget_tokens": 10000
},
"output_config": {
"effort": "low"
},
"messages": [
{
"role": "user",
"content": "请简单介绍一下阶跃星辰。"
}
]
}
欢迎大家多多体验 Step 3.5 Flash 2603!
platform.stepfun.com/step-plan/
也可扫描以下二维码加入我们的开发者社区,与官方小伙伴及更多开发者交流~