引言
4月13日,OpenRouter悄无声息地上线了一个没有任何开发者信息标注的模型——Elephant Alpha。1000亿参数、256K上下文、最多输出32K tokens、完全免费——这些参数听起来像是顶级闭源模型的配置,却挂着一个连开发者是谁都不知道的"匿名"标签。
4月15日,仅上线两天,Elephant Alpha跃居OpenRouter Trending榜单第二位[1],当日Token使用量暴涨377%,累计处理超过2180亿tokens[2]。一时间,社交媒体炸锅,开发者们疯狂测试,各种猜测甚嚣尘上。
这匹"黑马"到底什么来头?实力几何?本文将基于目前公开可查的数据和实测信息,对Elephant Alpha进行完整的深度测评。
一、核心参数一览
先来看Elephant Alpha的官方标称规格[3][4]:
| 参数项 | 规格 |
|---|---|
| 参数量 | 100B(1000亿) |
| 上下文窗口 | 262,144 tokens(约256K) |
| 最大输出 | 32,768 tokens(32K) |
| 支持功能 | 函数调用、结构化输出、提示缓存 |
| 输入费用 | $0 / 1M tokens |
| 输出费用 | $0 / 1M tokens |
| 上线日期 | 2026年4月13日 |
| 提供方 | Stealth(匿名供应商) |
这个配置放在当前的模型市场中是什么水平?以Claude 3.5 Sonnet为参照:200K上下文、约15/百万tokens的价格[5]。Elephant Alpha的上下文略胜一筹,而价格则是零。
二、速度表现:77 tokens/s,够用吗?
Elephant Alpha在OpenRouter上的实测吞吐量(p50)为77.0 tokens/秒[6]。需要说明的是,OpenRouter作为模型网关,会将请求路由至不同的底层提供商,实际速度会因提供商不同而有所波动。部分用户在Reddit上报告了不同的速度体验,有用户称实测达到过接近1000 tokens/s的瞬时速度[7],但这属于特定条件下的极端表现,不具有普遍参考价值。
从绝对速度来看,77 tokens/s算不上顶尖。以推理优化著称的DeepSeek-R1或o3-mini系列,在特定批量处理场景下可轻松达到200+ tokens/s[8]。但这个速度对于日常开发场景——代码补全、文档处理、轻量Agent任务——已经完全够用,甚至可以说绰绰有余。
真正值得注意的是Elephant Alpha的响应延迟(Latency)和吞吐量稳定性。OpenRouter的排名系统Latency Allocations显示,Elephant Alpha在延迟维度上处于中等偏上水平,不是最快,但也没有明显短板。对于需要稳定输出的生产场景,这个速度是合格的。
三、主要擅长领域分析
3.1 代码补全与调试
OpenRouter官方对Elephant Alpha的定位描述中,**代码补全和调试(code completion and debugging)**被列为首要适用场景[3]。
Elephant Alpha主打的是"智能效率(intelligence efficiency)"——即在完成相同任务时消耗更少的Token。这个设计哲学对于代码场景意义重大:代码文件往往体积庞大,一个完整的代码库可能包含数万行Token。Token效率高意味着:
- 更长的Agent链:在有限的上下文窗口内,可以执行更多轮次的操作[9]
- 更低的成本:对于需要高频调用的代码补全场景,Token消耗直接等于金钱
- 更快的单次循环:同样Token预算下,Elephant Alpha可以做更多推理步骤
据36kr引用测试数据,在执行相同的逻辑推理或代码审计任务时,Elephant Alpha的Token消耗量远低于其他厂商同级别模型,基本与GPT-5.4 Mini持平[9]。
3.2 长文档快速处理
256K的上下文窗口是Elephant Alpha的另一大杀器。这个长度意味着可以一次性处理:
- 约2500页PDF文档
- 完整的代码仓库(取决于项目规模)
- 超长对话历史或多轮Agent交互记录
在长文档处理场景中,Elephant Alpha的**提示缓存(Prompt Caching)**功能尤为关键。该功能允许模型复用已处理过的上下文部分,显著降低重复调用的Token开销。这对于需要反复查询同一大型文档的Agent场景,是实质性的效率提升。
3.3 轻量级Agent交互
Elephant Alpha的函数调用(Function Calling)和结构化输出能力,使其可以胜任轻量级Agent的后端大脑。OpenRouter官方将其"lightweight agent interactions"列为第三大适用场景[3]。
但需要指出的是,"轻量级"这个定语是客观描述而非贬低。Elephant Alpha的强项在于高效完成短周期任务,而非管理超长记忆链路或多步骤复杂规划。在这类场景下,它的Token效率优势可以最大化发挥。
四、与主流模型Benchmark对比
4.1 先说一个关键问题:Elephant Alpha没有公开Benchmark
这是Elephant Alpha最大的争议点之一。OpenRouter官方页面明确标注:"Prompts and completions may be logged by the provider and used to improve the model"(提示和回复可能被提供商记录,用于改进模型)[3][4]。没有公开的第三方Benchmark数据,意味着我们无法将其与其他模型进行标准化的量化对比。
这是有意为之还是无意遗漏,不得而知。但对于需要选择生产级模型的开发者来说,这是一个必须认真考虑的风险因素。
4.2 与同价位/同级别模型的参数对比
| 模型 | 参数量 | 上下文 | 输出 | 价格($/M tokens) | 函数调用 | 速度(tok/s) |
|---|---|---|---|---|---|---|
| Elephant Alpha | 100B | 256K | 32K | 0 | ✅ | ~77 |
| GPT-4o | ~1T(Mixture) | 128K | 16K | 15 | ✅ | ~150 |
| Claude 3.5 Sonnet | 未公开 | 200K | 8K | 15 | ✅ | ~120 |
| DeepSeek-V3 | 236B | 64K | 8K | 1 | ✅ | ~60 |
| Qwen3-72B | 72B | 128K | 8K | 2 | ✅ | ~80 |
| Gemini 2.0 Flash | 未公开 | 1M | 8K | $0.1以下 | ✅ | ~200 |
从上表可以看出,在免费这个维度上,Elephant Alpha没有对手。即使是同样主打性价比的DeepSeek-V3,API费用也不是零。
4.3 Token效率:Elephant Alpha的真正卖点
据36kr的对比测试[9],Elephant Alpha在代码补全和逻辑推理任务中,Token消耗量与GPT-5.4 Mini持平,远低于其他同级别100B+模型。这意味着,在相同的Token预算下,Elephant Alpha可以完成更多有效推理步骤。
这背后的设计思路很清晰:不是追求单次输出的"智商"最高,而是在有限的Token预算内最大化任务完成率。
五、为什么匿名模型能冲上Trending第二?
4月15日,Elephant Alpha在OpenRouter Trending榜单中位列第二,这不是偶然。
5.1 免费的力量
免费是最简单粗暴的引爆点。100B参数、256K上下文、支持函数调用——这个配置如果是任何一家知名厂商发布,最低也要0**,还没有速率限制(实际有OpenRouter的统一限制,通常为20 req/min)[10]。
开发者们的心态很直接:先用了再说,不好用也不亏。
5.2 匿名模型的神秘感
OpenRouter此前已经上线过类似的匿名模型(如Hunter Alpha、Sherlock Think等),均引发了社区的广泛讨论[11]。每次匿名模型上线,开发者社区都会自发地掀起一轮"猜猜是谁"的分析热潮——这类讨论本身就是免费的营销传播。
Elephant Alpha上线后,Twitter/X、Reddit、LinkedIn上大量科技博主第一时间发布了测评视频和文章,形成了病毒式传播[12]。
5.3 377%的日增长
据AIbase报道,Elephant Alpha上线次日,日Token使用量增长377%[1]。这个数字的背后是:
- 大量开发者出于好奇进行测试性调用
- 开源社区Agent项目开始将其纳入备选模型
- 技术博主测评视频带来的持续流量
在OpenRouter这个以真实Token消耗为排序依据的平台上,377%的日增长是实打实的用户行为数据,不是刷出来的虚假繁荣。
5.4 OpenRouter的平台效应
OpenRouter本身拥有超过300+模型,覆盖几乎所有主流AI服务[13]。平台每周处理超过20万亿tokens[14],用户已经形成了在OpenRouter上探索新模型的消费习惯。Elephant Alpha的发布恰好借势了平台自身的流量红利。
六、实测效果展示
以下是各渠道收集到的开发者实测反馈汇总(来源:Reddit r/openrouter、r/DeepSeek讨论区[7][15]):
正面反馈
- 速度快:相比同参数级别的DeepSeek-Coder系列,响应明显更快
- Token效率高:完成相同代码补全任务,输出Token数明显少于GPT-4o
- 免费无门槛:无需信用卡即可调用,降低了测试门槛
- 结构化输出稳定:JSON Schema约束下的输出格式规范,符合Agent工具调用需求
负面/争议反馈
- 复杂Agent任务有局限:有用户在测试中观察到"进入死循环读取文件"的情况[15],在复杂多步骤任务中表现不如预期稳定
- 没有Benchmark支撑:无法量化评估其真实能力边界
- 数据隐私风险:提示和回复可能被记录,不适合处理敏感业务数据
- 提供商未知:无法评估其安全合规水平
适用场景总结
| 场景 | 推荐度 | 原因 |
|---|---|---|
| 代码补全/Autocomplete | ⭐⭐⭐⭐ | Token效率高,免费无限制 |
| 代码调试/Bug定位 | ⭐⭐⭐⭐ | 上下文够长,输出精简 |
| 长文档总结/分析 | ⭐⭐⭐ | 256K上下文,处理能力强 |
| 轻量Agent后端 | ⭐⭐⭐ | 支持函数调用,工具调用稳定 |
| 复杂多步骤Agent | ⭐⭐ | 存在不稳定性,长链路任务有风险 |
| 敏感数据处理 | ⭐ | 数据可能被记录,不推荐 |
七、Elephant Alpha的局限性:这些坑你必须知道
7.1 开发者完全未知——最大的不确定性
这是Elephant Alpha最核心的风险。OpenRouter上的提供商信息仅显示"Stealth",没有任何关于实际开发者的信息[3]。这与此前上线的Hunter Alpha情况类似——后者后来被猜测可能是小米公司的MiMo模型[14],但从未得到官方确认。
开发者未知意味着:
- 无法评估训练数据来源:是否有版权争议?是否有合规问题?
- 无法预测模型更新计划:是否会突然下架?会突然收费?
- 无法追溯数据安全责任:敏感数据处理后的记录保留政策完全未知
7.2 没有公开Benchmark——选型风险大
生产环境选型通常需要参考SWE-bench Verified、LiveBench、Chatbot Arena等标准Benchmark[16]。Elephant Alpha没有任何公开的第三方评测数据,这意味着:
- 无法与GPT-4o、Claude 3.5等模型进行量化对比
- 无法判断其在特定垂直领域(代码/数学/推理)的真实能力
- 能力边界不明确,踩坑成本高
7.3 数据隐私风险
OpenRouter明确标注Prompts and completions may be logged by the provider[3][4]。这意味着:
- 你输入的代码、文档、对话内容,可能被提供商保存和使用
- 不适合处理任何涉及商业机密、个人隐私或受监管数据
- 使用前需确认是否满足你所在机构的合规要求
7.4 速率限制
虽然Elephant Alpha本身免费,但OpenRouter对免费模型有统一的速率限制:通常为20请求/分钟,200请求/天[10]。对于个人开发测试足够,但无法支撑高频生产调用。
八、未来展望:Elephant系列的下一步
Elephant Alpha的出现不是孤例。OpenRouter近期密集上线了多款匿名/Stealth模型,包括Hunter Alpha(小米MiMo前身)、Sherlock Think、Dash Alpha等[14][17]。这一系列动作表明:
OpenRouter正在构建一个"匿名模型生态",通过引入来源不明的模型来:
- 测试市场对高性价比模型的需求:用免费+高参数+长上下文的组合试探开发者付费意愿
- 绕过品牌溢价:在没有品牌背书的情况下纯粹以性能价格比吸引用户
- 为潜在的模型供应商提供匿名发布渠道:降低厂商的市场测试成本
可以预期,Elephant Alpha不会是这个系列的终点。如果用户量和Token消耗持续增长,OpenRouter可能会推出Elephant Beta、Elephant Pro等后续版本,也可能逐步解锁更多功能或Benchmarks。
结语
Elephant Alpha是一款特点极为鲜明的模型:免费、高参数、长上下文、Token效率高,但没有公开Benchmark,开发者未知,数据可能被记录。
它最适合的场景是:个人开发者测试、代码补全原型、长文档处理、轻量Agent搭建。 它不适合的场景是:敏感数据处理、复杂Agent任务、生产环境高可靠服务、需要量化能力对比的选型场景。
从市场影响来看,Elephant Alpha的成功(上线两天冲到Trending第二)已经证明:在AI模型市场,免费+高质量的组合依然是最强的流量密码。它给所有付费模型厂商都敲响了警钟——当一个匿名模型都能提供100B参数、256K上下文、完全免费的服务时,品牌的溢价空间正在被进一步压缩。
至于它到底是谁做的——这个问题,或许永远不会有官方答案。但对于真正用它的开发者来说,"是谁做的"可能并不重要,重要的是它能不能把活干好。
参考来源
[1] 100B Anonymous Model Elephant Rises to Second Place on OpenRouter Trend List,AIbase,2026年4月15日
[2] Models: 'elephant-alpha' | OpenRouter,OpenRouter官方页面
[3] Elephant - API Pricing & Providers,OpenRouter官方页面
[4] Elephant compared to other AI models,OpenRouter官方比较页面
[5] Anthropic Claude 3.5 Sonnet Official Documentation,Anthropic官网
[6] OpenRouter Compare页面实测吞吐量数据Throughput (p50) 77.0 tok/s,来源同[4]
[7] Reddit r/openrouter: Elephant-alpha Is a BEAST, Damn FAST,Reddit讨论帖
[8] DeepSeek vs GPT-4: Real Developer Benchmarks & Performance,SitePoint,2026年
[9] The anonymous model "Elephant" disrupts OpenRouter,36kr EU,2026年4月
[10] OpenRouter Free Models: All 29 Listed (Apr 2026),CostGoat,2026年4月
[11] Why did the anonymous model called Hunter Alpha surface on OpenRouter,Quora讨论
[12] Twitter/X @hasantoxr: OpenRouter just dropped a 100B model,2026年4月
[13] OpenRouter Official Website,OpenRouter首页
[14] OpenRouter Rankings April 2026: Top AI Models by Data,Digital Applied,2026年4月
[15] Reddit r/DeepSeek: Elephant-alpha model on Openrouter discussion,Reddit讨论帖
[16] AI coding benchmarks - Failing Fast,Failing Fast基准指南,2026年2月
[17] YouTube: BREAKING OpenRouter just dropped 2 stealth AI models,YouTube视频,2026年