算了么 API 评测,闲置显卡组成的野生推理集群

0 阅读4分钟

2765次社区测速,全站排名第二。名字叫「算了么」。

我第一次看到这名字差点以为是个外卖平台。

算了么 API 网站截图

算了么 API 网站截图

但数据不骗人。这站在 LMSpeed 467个已发布服务商里排第二,仅次于 AI Tools 的4009次。它的模式也很特别,算力来源是「共享闲置计算资源」,说人话就是一帮人把自己的4090显卡贡献出来,组了一个分布式推理集群。

先上硬数据。

QwQ-32B(唯一上榜模型)

  • 平均 TPS,34.16
  • 峰值 TPS,107
  • 平均首字延迟,9秒
  • 测试样本,5次

做个参照。QwQ-32B 是一个32B参数的推理模型,本身就吃算力。34 TPS 这个成绩放在正规云厂商那里也算中规中矩,考虑到算力来源是个人闲置设备,说实话超预期了。

下面是算了么在 LMSpeed 上所有已测模型的速度数据,一张图看完全貌。

算了么 支持模型及测速排行

算了么 支持模型及测速排行

目前这站收录了14个模型变体,主力是 DeepSeek-R1 和 QwQ。不算多,但都是硬通货模型。

几个技术细节。

API 完全兼容 OpenAI 格式,标准端点 /v1/chat/completions,标准 API Key 认证。你现有的 OpenAI SDK 代码改个 base URL 就能跑。被 LMSpeed 标记为「公益」分类。

最近用户跑的测试记录也看一下,注意观察不同时间段的速度波动,这是分布式算力的典型特征。

算了么 最近测试记录

算了么 最近测试记录

这个「共享闲置算力」的模式值得多聊两句。

逻辑很简单,那些买了4090打游戏的兄弟,显卡大部分时间是闲着的。挖矿不让搞了,但跑开源模型推理是合规的。算了么把这些散落在各处的算力收集起来,接上 DeepSeek-R1 这种模型,对外提供 API 服务。

有点去中心化的味道。但这也意味着一个天然的风险,算力的稳定性取决于贡献者。人家关机了你就没资源了。高峰期可能排队。不像阿里云百炼(收录了63个变体、240次测试)或者 SiliconFlow(71个变体、272次测试)那种有专业数据中心兜底的服务。

健康状态图能直观看出这站的在线情况和故障记录。

算了么 健康状态和可用性记录

算了么 健康状态和可用性记录

但反过来想。DeepSeek-R1 官方 API 的排队体验大家都知道。。。如果你只是想用开源模型做开发测试,算了么提供了一个成本极低的替代方案。

2765次测试,说明确实有一批人在长期使用它。

再放一个横向对比,看看几个公益/免费站和商业云的差异。

服务商测试次数模型变体数类型
AI Tools400940公益/免费
算了么 API276514公益/共享算力
SiliconFlow27271商业云
阿里云百炼24063商业云
DeepSeek 官方772官方

算了么用14个模型变体拿到了2765次测试,变体少但测试密度极高。说明用户不是在「尝鲜」,而是在「常用」。


评测数据卡

项目数据
站点算了么 API
地址api.suanli.cn
模型变体数14
算力来源分布式闲置GPU(个人4090等)
费用公益项目
分类标签公益、中国
QwQ-32B 平均TPS34.16(峰值107)
QwQ-32B 首字延迟9秒
全站测试排名#2(2765次)
OpenAI SDK兼容
主力模型DeepSeek-R1、QwQ
稳定性风险⚠️ 依赖个人设备在线状态
LMSpeed 详情查看实时数据[1]

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~ 谢谢你看我的文章,我们,下次再见。

References

  1. 查看实时数据: lmspeed.net/provider/ap…