把模型焊死在芯片上,就能跑出 17,000 tokens/秒?这是一条死路,还是一条新路?

0 阅读3分钟

最近刷到一条挺“炸裂”的消息:多伦多一家初创公司 Taalas 做了一颗 HC1 芯片,宣称跑 Llama 3.1 8B 能到 17,000 tokens/秒

方案倒是很好理解,他们把 AI 大模型物理焊死在芯片里

方案优劣先按下不表,我们先把一个问题讲清楚:17,000 tokens/秒 到底意味着什么?

Token 和 TPS

在大语言模型(LLM)中,Token 是模型处理文本的基本单位,可以理解为把文本切成一小片一小片的“最小颗粒度”。

它可以是一个单词(如 “cat”)、子词(如 “un”、“believable”),甚至是一个标点符号。例如:

  • 英文句子 “Hello, world!” ≈ 3 tokens("Hello", ",", "world" + "!")
  • 中文 “你好世界” ≈ 4 tokens(每个汉字通常单独成 token)

TPS(tokens per second) 指每秒生成多少 token,是衡量推理“输出吞吐”的核心指标。TPS 越高,长回答越像“刷屏”;越低,就越像在看模型慢慢打字。

横向对比

虽然了解了名词,但是直观感受依然没有。

我们来看几个直观的对比。

  • 普通消费级 GPU(如 RTX 4090)运行 Llama 3 8B:约 30–60 tokens/秒
  • 英伟达 H100 运行同模型:约 150–300 tokens/秒
  • Cerebras CS-3 系统(专为 AI 设计):约 2,000 tokens/秒
  • Taalas HC117,000 tokens/秒 —— 比 H100 快 50–100 倍

上面几个指标对比后,新方案 Taalas 的优势应该非常明显了。

代价是什么

这么高的速度优势,那付出的代价是什么呢?

无法更新/更改模型

芯片出厂后,只能运行写死的模型,比如报道中的 Llama 3.1 8B

不管是想要更新到 Llama 4,还是更换其他多模态模型,都无法实现。

特定场景下,反而刚刚好

看到这个限制,很多人的第一反应可能是:那不就成“一次性芯片”了?

但换个角度,如果你的需求足够稳定,它反而可能很有价值。

场景 1:智能体(Agent)之间的通信

目前,多智能体通信已经成为标配,如果依然采用原有通用芯片的吞吐,那速度将会成为瓶颈。

此时,速度 >> 灵活性,专用路线的 AI 芯片正好适合,甚至可以接受人类无法理解的速度。

场景 2:垂直领域嵌入式 AI

工厂质检机器人、车载语音助手、智能家居中枢,这类只需执行固定任务的设备,模型多年不变影响也不大。

此时,低成本、低功耗、高可靠性的专用芯片无疑可以带来更好的投入产出比。

因此,特殊场景下,个人感觉专用 AI 芯片可能具有更大的价值。

结语

17,000 tokens/秒 也许还需要更多公开测试来验证,但已经揭示了专有化 AI 芯片的价值。

如果让你选,你更看好哪种方向:继续堆通用算力,还是把专用化模型直接铺到设备里?