人工智能的三座大山
想象一下,你要教一个特别聪明但完全没经验的孩子。你需要三样东西:
- 教材(数据)——他学什么
- 老师的方法(算法)——他怎么学
- 学习时间(算力)——他学多久
这三样东西,就是人工智能的“三座大山”——数据、算法、算力。缺了任何一个,今天的AI革命都不会发生。
第一座山:数据——AI的“粮食”
没有数据,AI就是个空壳子。
数据为什么重要?
就像人通过看书、听课、观察世界来学习一样,AI通过“吃”数据来学习。你给AI看100万张猫的图片,它才能学会认猫;你给AI“喂”全网的文本,它才能学会聊天。
一个惊人的数字:
- GPT-3训练时“吃”了3000亿个单词,相当于一个人不吃不喝读2.7万年
- 这还只是文本,图片、视频数据更是天文数字
数据的挑战:
- 不够吃:很多领域缺乏高质量数据
- 不好吃:数据有错误、有偏见
- 太贵了:标注数据需要大量人力(比如给图片标“这是猫”)
现实例子:
你问AI医疗助手:“我发烧咳嗽怎么办?”
- 如果它只读过医学教科书→回答很学术
- 如果它还看过问诊记录→回答更实用
- 如果它看过各种偏方谣言→可能给你错误建议
数据决定了AI的“知识面”和“见识” 。
第二座山:算法——AI的“学习方法”
没有好方法,再多的数据也学不会。
算法是什么?
就是你教孩子的方法:
- 死记硬背(早期AI)
- 理解规律(机器学习)
- 举一反三(深度学习)
算法的进化史:
2012年转折点:深度学习算法在图片识别比赛中一鸣惊人,错误率从26%骤降到15%,从此开启AI新时代。
关键突破:
- 神经网络:模仿人脑,层层学习
- Transformer:2017年出现,现在是GPT、文心一言等大模型的核心
- 扩散模型:让AI从噪声中“想象”出图片,DALL·E、Midjourney都在用
算法的魅力:
同样的数据,不同算法效果天差地别:
- 旧算法:准确率70%,训练1个月
- 新算法:准确率95%,训练3天
算法决定了AI的“聪明程度” 。
第三座山:算力——AI的“学习时间”
没有足够的计算能力,AI学得动吗?
算力是什么?
就是计算能力。AI学习需要做海量数学题:
- 识别一张图:做几亿次计算
- 训练一个模型:做几万亿亿次计算
算力的爆炸增长:
2012年训练一个先进模型需要:
- 6天,在2个GPU上
2023年训练GPT-4需要:
- 90-100天,在25000个GPU上
- 耗电量相当于一个小城市
为什么需要这么多算力?
因为AI模型越来越大:
- 2018年GPT-1:1.17亿参数
- 2020年GPT-3:1750亿参数
- 2023年GPT-4:约1.8万亿参数
- 3年增长1500倍!
参数是什么:可以简单理解为AI的“脑细胞”,越多越聪明,但也越难训练。
算力的现实挑战:
- 贵:训练大模型要烧掉数千万甚至数亿美元
- 耗电:AI的数据中心是耗电大户
- 卡脖子:高端AI芯片(比如英伟达的)供不应求
算力决定了AI的“学习速度”和“模型大小” 。
三座山的关系:相互依赖的三角形
算法
/\
/ \
/ \
数据----算力
数据是基础:没有好数据,巧妇难为无米之炊
算法是核心:没有好方法,数据只是一堆数字
算力是保障:没有计算力,一切停留在纸面上
现实中的相互制约:
- 有了海量数据+先进算法,但算力不够→模型训练不完
- 有了强大算力+海量数据,但算法落后→效果差
- 有了先进算法+强大算力,但数据质量差→垃圾进,垃圾出
普通人的“三座山”
你可能觉得这些离你很远,其实:
你的数据:
- 每次搜索、每次点赞、每次购物
- 都在为AI提供“粮食”
你用的算法:
- 手机人脸识别
- 输入法预测
- 短视频推荐
- 都是算法在为你服务
你贡献的算力:
- 手机芯片越来越强
- 电脑显卡也能跑AI
- 你在用的每个AI功能,都在消耗算力
未来的突破在哪里?
- 数据突破:合成数据、小样本学习
- 算法突破:更高效的算法,用更少数据、更少算力达到更好效果
- 算力突破:新计算架构、量子计算潜力
一个好消息:三座山都在被攻克
- 数据:自动化标注、无监督学习
- 算法:每年都有新突破
- 算力:芯片性能还在指数增长
一个坏消息:AI对三座山的需求增长更快
- 大模型对算力的需求每3-4个月翻一番
- 这比芯片性能增长(18-24个月翻一番)快得多
总结
人工智能的三座大山:
- 数据是AI学习的教材
- 算法是AI学习的方法
- 算力是AI学习的时间
过去10年,我们翻过了这三座山,才有了今天的AI爆发。
未来10年,我们需要找到更可持续的攀登方式——用更少的数据、更聪明的算法、更高效的算力,让AI继续前进。
这三座山不会消失,但人类正在学习如何更轻松地翻越它们。而每一次翻越,都让我们离更智能的未来更近一步。
理解了三座大山,你就理解了AI为什么是现在这样,以及它可能向何处去。下一期,我们聊聊其中最神秘的部分:算法究竟是如何“思考”的。