英伟达的 H100 显卡直接送上了天——字面意义上的“上天”!

39 阅读4分钟

hi兄弟们,我是麦当mdldm,一个致力于把AI说明白、让大家都能用起来的0基础AI教学博主。

兄弟们,今天早上我刚醒,习惯性地刷了一下科技圈的新闻,直接给我看精神了。

咱们还在地面上为了显卡发热发愁,还在为了跑个大模型心疼电费的时候,有人居然把 英伟达的 H100 显卡直接送上了天——字面意义上的“上天”!

你没听错,就在这几天,一家叫 Starcloud 的初创公司(背后还是英伟达投的钱),宣布他们在太空中成功训练了 AI 大模型。这不仅仅是把芯片运上去那么简单,而是真刀真枪地在轨道上跑通了谷歌的 Gemma 模型,甚至还用莎士比亚全集训练了一个 NanoGPT。

很多兄弟可能会觉得:“麦当,这不就是有钱人的噱头吗?跟咱们普通人有啥关系?”

说实话,作为咱们 0基础AI教学博主,我第一反应也是觉得这事儿挺“科幻”且“遥远”的。但当我耐着性子深挖了一下背后的逻辑,我发现这事儿没那么简单。这不仅仅是一次昂贵的“太空秀”,它可能预示着未来算力成本的一次降维打击。

这就好比我平时教大家做 coze教学 时常说的:“不要只看工具的酷炫,要看它解决了什么痛点。”

image.png

来,兄弟们,咱们把这个“太空服务器”拆解一下,看看它到底牛在哪?

1. 为什么非要上天?

我在给企业做 AI 通识培训的时候,经常提到一个概念叫“算力成本”。在地面上,数据中心有两大死敌:电费散热

  • 电费: 地面电费贵,而且还得看电网脸色。
  • 散热: 显卡一跑满,热得能煎鸡蛋,为了冷却它,又得耗费大量的水和电。

但是到了太空,这俩问题居然奇迹般地解决了:

  • 能源无限: 太空里没有云层遮挡,太阳能板的效率是地面的好几倍,而且是 24 小时免费绿电。
  • 天然冰箱: 太空本身就是个巨大的“冷库”,利用辐射散热,连水冷都不需要了。

Starcloud 的 CEO 甚至放话,能源成本能比地面低 10 倍! 兄弟们,这要是真成了,以后咱们用 AI 的成本是不是也能打下来?

2. 它是怎么跑起来的?

这次上天的卫星叫 Starcloud-1,搭载了英伟达的 H100。它干了两件特别有意思的事儿:

  • 运行谷歌 Gemma 模型: 它直接从轨道发回了一句问候:“Greetings, Earthlings!”(地球人你们好!)。这感觉,是不是有点《三体》那味儿了?
  • 训练 NanoGPT: 用莎士比亚全集去训练模型。结果这 AI 现在说话全是莎士比亚那种文绉绉的调调。

3. 对咱们做应用开发的启示(Coze视角)

这里有个点特别戳我。作为一名 coze教学 的老司机,我经常跟兄弟们强调 “边缘计算”“数据处理前置” 的重要性。

你想想,以前卫星拍了地球的照片(比如森林大火、海上船只),得把几百 GB 的原始数据传回地球,慢得要死。现在好了,直接在天上用 H100 跑 AI 分析,识别出结果(比如:“发现火灾,坐标XXX”),只传回这 1KB 的关键信息。

这不就是咱们在 Coze 里搭建工作流的终极奥义吗?—— 只传输最有价值的信息,把繁重的计算留在最合适的地方。

看完这个新闻,我其实挺感慨的。

一方面,感叹技术的迭代速度快到令人发指。咱们还在学习怎么写 Prompt,巨头们已经开始在太空布局“算力星链”了。

但另一方面,我也看到了机会。无论是地面的数据中心,还是太空的轨道服务器,算力最终都是为了应用服务的

技术再高大上,也需要像咱们这样的“普通人”去挖掘它的落地场景。Starcloud 在天上解决“硬件散热”和“能源”的问题,而我们 麦当mdldm 和各位兄弟们,要在地面上解决“怎么把 AI 用到工作流里”、“怎么帮企业降本增效”的问题。

不要觉得 AI 遥不可及。 哪怕是太空里的 H100,跑的也是开源的 Gemma,用的也是大家都能接触到的 Transformer 架构。

所以,兄弟们,别光顾着看热闹,手里的 Coze 赶紧练起来,把基础打好。等未来太空算力真的普及了,咱们就是第一批能驾驭这股力量的人。

路虽远,行则将至;事虽难,做则必成。 咱们一起加油!

欢迎大家:

  • B站/小红书/掘金: 麦当mdldm
  • 个人知识站: www.mdldm.club (海量免费教程和付费精品课,等你来解锁!)