2765次社区测速,全站排名第二。名字叫「算了么」。
我第一次看到这名字差点以为是个外卖平台。
算了么 API 网站截图
但数据不骗人。这站在 LMSpeed 467个已发布服务商里排第二,仅次于 AI Tools 的4009次。它的模式也很特别,算力来源是「共享闲置计算资源」,说人话就是一帮人把自己的4090显卡贡献出来,组了一个分布式推理集群。
先上硬数据。
QwQ-32B(唯一上榜模型)
- 平均 TPS,34.16
- 峰值 TPS,107
- 平均首字延迟,9秒
- 测试样本,5次
做个参照。QwQ-32B 是一个32B参数的推理模型,本身就吃算力。34 TPS 这个成绩放在正规云厂商那里也算中规中矩,考虑到算力来源是个人闲置设备,说实话超预期了。
下面是算了么在 LMSpeed 上所有已测模型的速度数据,一张图看完全貌。
算了么 支持模型及测速排行
目前这站收录了14个模型变体,主力是 DeepSeek-R1 和 QwQ。不算多,但都是硬通货模型。
几个技术细节。
API 完全兼容 OpenAI 格式,标准端点 /v1/chat/completions,标准 API Key 认证。你现有的 OpenAI SDK 代码改个 base URL 就能跑。被 LMSpeed 标记为「公益」分类。
最近用户跑的测试记录也看一下,注意观察不同时间段的速度波动,这是分布式算力的典型特征。
算了么 最近测试记录
这个「共享闲置算力」的模式值得多聊两句。
逻辑很简单,那些买了4090打游戏的兄弟,显卡大部分时间是闲着的。挖矿不让搞了,但跑开源模型推理是合规的。算了么把这些散落在各处的算力收集起来,接上 DeepSeek-R1 这种模型,对外提供 API 服务。
有点去中心化的味道。但这也意味着一个天然的风险,算力的稳定性取决于贡献者。人家关机了你就没资源了。高峰期可能排队。不像阿里云百炼(收录了63个变体、240次测试)或者 SiliconFlow(71个变体、272次测试)那种有专业数据中心兜底的服务。
健康状态图能直观看出这站的在线情况和故障记录。
算了么 健康状态和可用性记录
但反过来想。DeepSeek-R1 官方 API 的排队体验大家都知道。。。如果你只是想用开源模型做开发测试,算了么提供了一个成本极低的替代方案。
2765次测试,说明确实有一批人在长期使用它。
再放一个横向对比,看看几个公益/免费站和商业云的差异。
| 服务商 | 测试次数 | 模型变体数 | 类型 |
|---|---|---|---|
| AI Tools | 4009 | 40 | 公益/免费 |
| 算了么 API | 2765 | 14 | 公益/共享算力 |
| SiliconFlow | 272 | 71 | 商业云 |
| 阿里云百炼 | 240 | 63 | 商业云 |
| DeepSeek 官方 | 77 | 2 | 官方 |
算了么用14个模型变体拿到了2765次测试,变体少但测试密度极高。说明用户不是在「尝鲜」,而是在「常用」。
评测数据卡
| 项目 | 数据 |
|---|---|
| 站点 | 算了么 API |
| 地址 | api.suanli.cn |
| 模型变体数 | 14 |
| 算力来源 | 分布式闲置GPU(个人4090等) |
| 费用 | 公益项目 |
| 分类标签 | 公益、中国 |
| QwQ-32B 平均TPS | 34.16(峰值107) |
| QwQ-32B 首字延迟 | 9秒 |
| 全站测试排名 | #2(2765次) |
| OpenAI SDK兼容 | ✅ |
| 主力模型 | DeepSeek-R1、QwQ |
| 稳定性风险 | ⚠️ 依赖个人设备在线状态 |
| LMSpeed 详情 | 查看实时数据[1] |
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~ 谢谢你看我的文章,我们,下次再见。
References
- 查看实时数据: lmspeed.net/provider/ap…