AI 民科对现阶段 AI 能力的理解(下)

1,085 阅读25分钟

AI 会如何影响你的行业

通过上一篇《AI 民科对现阶段 AI 能力的理解(上)》中,我们明白了 AI 当下的水平的能力水平。然后就能回答大家好奇的问题,哪些行业,哪些场景将会收到冲击,或者说,将会有全新的机会。

然后大家最好奇的就是,ChatGPT 被传的如此神奇,甚至都能读懂保险条款,那它还能干什么?会不会如网上所传的那样,很多岗位将不会有存在的必要?

虽然现在网上传的很多,但归类来说,主流的应用场景主要如下几类(文本领域):

  1. 通用聊天场景:也即 ChatGPT 本身,或者用 gpt-3.5 的 api 实现的各类网站或小程序。他们没有明确的问题场景,但反而可以解决非常多的问题,比如搜索一些常见问题的答案、编个笑话等,可以当个搜索引擎使用,个人感觉50%以上的问题,效率超过搜索引擎。当然未来搜索引擎会融合这样的能力,bing 已经融合了。
  2. 客服/答疑系统:比如说 保险条款 的回答。很多问题一直需要客服的原因是客户的表达是非结构化的,客服端的知识也是非结构化的。而如今的 AI 有能力实现推理与文本信息结构化,于是乎,只要是基于现有的知识体系就能回答的问题,都能够被解决。当然客服不仅仅只处理简单的事情,依旧有复杂的事情需要人工服务。
  3. 程序编程:比如 cursorcopilot-x。虽然目前还不能完全替代人工编程,但在很多小模块(以函数、组件为维度的代码块),AI 已经有能力基于程序员诉求直接完成编写工作。或者帮助程序员给现有代码进行注释、或者Code Review(审核代码,发现隐藏问题)。
  4. 办公助理:这里的办公主要还是指文字类的办公,比如 Notion AI ;比如微软的 copilot(跟上述编程提到的 copilot 都是微软旗下,相同品牌,不同应用)。基于这些助理,可以快速的实现文档的攥写、润色、审查;亦或者是数据表格的快速处理。
  5. 教育培训:市面上貌似还没有比较成熟的,但确实是一个相对热门的方向。入门级的教培服务其实是剧本化、场景化的,且知识体系相对固定。随便举个例子,即使仅是把现在的课本转成智能课本,这个想象空间也比较巨大。

这里只是列举几个火热的方向。除此外,其他各种垂直业务当然还会有非常多的细的应用场景,比如医疗问诊。这些都还只是 ToC 的场景,还有很多 ToB 的场景,比如:数据挖掘、知识库管理、财务计算、法务合规等等。

但总结来说,这些场景都可以抽象为,AI 基于现有知识,为你的问题返回一个答案。而这些工作在以前,传统 AI 无法胜任的原因在于,知识是非结构化的,问题与答案也是非结构化的,而且问题与答案还无法穷举、具有强逻辑,甚至还带有感性因素。

传统 AI 也尝试在其中部分环节来解决问题,比如现有的一些智能客服系统,会通过一定算法对用户的问题做分类,也即是各种意图识别。对于非结构化的知识,会采用人工手段,基于专家经验,把高频问题的知识去结构化,并基于一定的逻辑编排来设计剧本,最终解决用户相对高频的问题。

如此抽象以后,我们会发现,其实大部分脑力工作,都是这个范式。不同的人在过程中能表现出高低水平,也是体现在某几个环节是否能出彩,比如抽象能力强的人擅长抽离非结构化的知识;逻辑推理能力强的人擅长解决复杂逻辑问题;洞悉人性的人更能处理复杂的情感类问题。

但现在大模型 AI 在这几个方面都具备了非常高的水平。因此可以预见,大部分脑力工作,都不可避免的会被 AI 给深刻影响

大模型 AI 就像铁器时代遇到了蒸汽机。人们发现“烧开水”可以把原本人力的事情转成机械的事情。从此开始极大的提高人类生产力,彻底改变了人类的生产与生活方式。但是从蒸汽机到火车、汽车、轮船中间肯定还有很多事情。不是拿来一堆铁皮,捏成汽车、轮船的样子,里面放个蒸汽机就可以了。这里面还有大量的机械工程事情要做。

大模型 AI 也是如此,相当于一颗不输人类的脑子已经有了,但真正离各种领域的生产作用,还缺乏很多工程上的事情,可以理解成,有脑子但没躯干与器官。比如,如果我们希望实现一本智能电子教科书(让 ChatGPT 给我一些点子): image.png 其中的可视化与动画,需要我们在工程上实现这样的交互能力;社交学习,需要能有网络连接其他的电子教科书;互动学习需要教科书跟人有更好的人机交互等等。

“躯干与器官”一方面是能够真正执行脑子的命令,但从另一方面也是增加一些限制来最大化提升某方面的效率。就好像人类四肢灵活,但不能飞;鸟能飞,但无法游泳一样。即使我们思想上能翱翔天空,但躯干无法达到。

我们给大模型装上躯干的同时,也代表了它适合做某几类事情,并且能在这些事情上处理的更好。但相比于传统 AI 来说,大模型这颗新脑子的特长就是,装什么躯干都可以,不用换脑子。这极大的降低了解决某类事情的成本,也极大提升了解决某类事情的上限。

在现代大型互联网企业中,一般是算法工程师专门造脑子,前端、后端这些工程师负责装躯干。现在大模型这颗脑子能力太强,普适性太强,算法工程师造脑子的必要性就弱下来了,对他们也造成了深深的焦虑感。

但现实里有不少事情,并非是一个人或者一类人就能解决的。或者说,让不同的人做不同的事情,可能效率会更高。比如说一个软件的设计与发布,经历了产品经理、交互设计、视觉设计、前后端工程师等流程。

相应的,我们也可以给大模型 AI 脑子装上不同的躯干,让他们更适合做产品经理或交互设计或程序员。我们只要定义好流程,在不同的流程上放上不同的脑子+躯干,最终串成生产线,这样就能带来更大的生产力革命

当然这一步还有很长距离,毕竟每个节点,现在这些 AI 的准确度也并不是非常理想,而且纠错机制比较少。一个节点有一定的不确定性,那多个节点串联起来,就会更加放大问题。较窄的马路上遇到一个新手司机不可怕,可怕的是两个新手司机相遇了。

大模型的核心在于数据与算力

虽然说大模型这颗 AI 脑子很强,但不代表它真的装到任何躯体中就能马上使用。它就跟一个没读过书的人一样,虽然很聪明,但要解决某个领域的问题,还需要让他先学习。

但就跟人类想学习要花钱一样,大模型的学习也要花钱。学越多的知识就要花越多的钱。这集中在两个方面:1 是数据,2 是算力。

数据很好理解,类比成人类的知识课本。但是记得,得是知识课本,而不是任何文字都可以。一个人,你每天跟他说 一万句牛头不对马嘴的话,他也学不到任何东西;如果每天跟他说的都是歪理邪说,那么他也只会学坏。AI 也是一样,要让他学会知识,首先得构造出海量的、高质量的数据。

高质量顾名思义好理解,数据是完整的、有语义的、正确的、可信的、较新的等等。那海量如何理解呢?GPT-3 的预训练数据消耗了 45TB 的文本,这大概是 4500亿个单词或文字。这是什么概念呢?明朝的《永乐大典》,包含了中国14世纪以前的最核心历史与知识,3.7亿个字。清朝的《四库全书》,包含了18世纪以前最核心的历史与知识,8亿个字。就算按现在的图书馆来看,4500亿文字也超过了绝大多数的图书馆的图书文字量。

image.png

如果平均一本书 5 万字的话,4500亿字大概900万册书。如果有人说他能记住一个图书馆的内容,你肯定觉得他在扯淡。

而数据,作为21世纪最为宝贵的财富,并不是每个企业都拥有的。尤其这些数据是要高质量的,并不是微博上爬一堆僵尸粉的回复就可以的。就算你拥有了一定的数据,还得为这个数据做合适的处理,包括数据的结构化,数据的隐私性处理等等,这又是复杂的工程。

现在假设你拥有了庞大的数据,你还得把这个数据灌给大模型,让他训练。根据一些网上的资料,GPT 3.5 一次的训练成本约为 140 万美元,总成本上千万美元。GPT-4 因为参数又上了一个数量级,成本自然会更高。虽然现在有些开源模型,参数大概只有十几亿,号称自己训练成本只要几百美元就能达到 GPT-4 百分之多少的能力,但我相信往往就是剩下那百分几或十几是最难逾越的鸿沟,不解决那部分问题,就永远够不上 AGI。曾经也有一些专家称,大模型的理解能力大概在几百亿参数的时候才能够涌现出来。

image.png

这百来万美元的成本,最主要的就是 GPU/TPU 的消耗。粗糙的理解就是要买/租无数张显卡来进行运算,来实现大模型对知识的学习。同样根据网上一些资料所示,GPT-3 大概需要1000张 NVIDIA A100 训练一个月。

根据 www.autodl.com/ 这个显卡租赁网站来看,1000张 NVIDIA A100 训练一个月。纯显卡设备就花费了500多万RMB。现在行情火到显卡都租不到了。

这还只是 1750亿参数的 GPT-3,GPT-4 以及未来的GPT-5消耗成本会更高。而且,训练不代表一定能成功,训练的过程也有可能因为种种原因不及预期,而错一次可能就是几百上千万美元的损失。

高昂的数据成本与计算成本,让小公司基本与拥有真正的大模型绝缘。加上其他硬件成本、人才成本,也就阿里百度腾讯字节这些头部互联网公司真的能有资源投入,当然这又涉及公司战略以及执行层面的事情。

那我们是否就可以用国外的大模型即可?用当然也能用。但怎么说呢,大模型的主要训练分两个阶段,预训练与微调。刚才的高昂成本主要就是发生在预训练阶段。大家可以把预训练类比成孩子的九年义务教育,甚至不止九年,会到高中,而微调就是专业技术学习。如果咱们得人才,在他学生时代,接受的都是精美精日、反党反国家的教育,那会发生什么呢?用国外的大模型就要承担这样的风险,用的教材是人家的,会产生什么样的问题我们也很难预料。

而且大模型AI,作为核心科技竞争力,也会面临如今芯片这种管控的问题。如果我们真的已经大量投入应用,突然有一天被列入什么什么清单管控了,那又是一件卡脖子的事情。

未来随着参数规模的继续过大,训练成本会继续增加,数据量也会增加,门槛与成本会越来越高,单个企业更难负担。其实最好的解决方案,还是国家统筹坐庄,产研结合,把控数据质量,训练一个国内统一的大模型AI,各个企业基于此做二次训练与微调。

大模型 AI 就像教育,也像修路。投入成本特别高,但短期回报率低。小公司没财力,大公司没魄力。个人还是觉得社会主义应该要发挥社会主义的力量,集中力量办大事,普惠 AI 生产力。

大模型 AI 的恐怖之处

关于暂停巨型 AI 实验的公开信: futureoflife.org/open-letter…

话又分两面说。虽然有一部分人很兴奋,但同时有一部分人表示出了一些害怕,或者说谨慎。上面这封关于暂停大模型AI实验的公开信获得了马斯克以及图灵奖得主等一堆大佬的签名。

为什么他们对大模型 AI 保持如此谨慎的态度呢?在上一篇文章中我们说到了一个词,“涌现(emerge)”。根据现行的资料与研究,其实关于大模型 AI 如何诞生出理解的能力,是未知的。也就说,人们根本不知道其中的原因与机制到底是什么,唯一相对确定的是。大模型诞生出的较强的理解与推理的能力,应该是在训练代码理解与生成的过程中涌现出来的。也就是说,本来是想让大模型学会怎么理解代码,怎么写代码。大模型学着学着,不知道在什么时候,突然对自然语言也有了逻辑推理的能力,于是才惊艳了众人。

在我曾经的一篇学习笔记中《遇事不决、量子力学》,我曾经提及到涌现的现象:

那人类的自我意识什么时候诞生呢?我们有一些现象可以感觉一两岁的幼童是不具备成人般的自我意识的。而随着人类神经网络的优化与成型,自我意识就不断产生了。这个过程是否有一个明确的分割点?并没有,这个过程是渐渐浮现出来的,是一个“涌现(emerge)”的过程。

就好像是画一副画。我们观察绘画的过程中,从一张白纸一笔笔勾勒出最终画作的过程中,我们很难说某一个时刻开始,它才算是一幅画的。而如果对人类的“灵魂”去做一幅画,那大脑中的神经网络无疑是最好的画作。

image.png

有现象表明,刚出生的人类其实并没有成人般的自我意识,而随着人类神经网络的优化与成型,自我意识就不断产生了,这个过程并没有一个明确的分割点,这其中的原理与机制,至今人类也是充满了未知。

如今大模型 AI 理解与推理能力的涌现以及上篇文章中 Google 研究员副总裁与 Google AI 关于哲学僵尸的讨论,让人们深思,是否 AI 真的会诞生出自我意识?拥有自我意识的它们是否还会收到我们的管控?AI 生命是否会像奥创或者终结者中的天网一样,造成人类的毁灭性灾难

说实话,因为我们对现在大模型AI的部分机制未知,我们无法准确的回答上述问题的答案,也就是说,确实是存在这些风险的。就算没世界末日那么可怕,那也很有可能对人类知识体系,或者人类某些核心生产链路产生难以挽回的影响

大模型 AI 与哲学

在我成为 AI 民科 之前,我就已经成为了一个 哲学民科。作为一个延续了几千年的学问,我更没有资格去了大模型对哲学造成的确切的影响。只是说,我感觉,人工智能的继续发展,应该会对哲学造成非常深刻的影响,至于有哪些影响,我并无法判断。

在我说话之前,我先推荐一篇文章 。这里关于 ChatGPT 对哲学的一些思考,绝对比我说的深刻与准确。这个文章的作者老喻,也是个传奇人物,是得到上《人生算法课》的作者。著名金融学者香帅曾说,老喻是她最聪明的朋友口中最聪明的人。

理性主义与经验主义

我是在思考 “大模型AI的出现 是否证明了 纯粹理性是错的” 时,搜到了这篇文章。所以我也准备先从理性主义开始讲起。

理性主义认为世界的真理是可以靠纯粹理性加以获取的,而不依赖于生活经验与日常观察。反而认为那些依靠观察与经验获取的知识是不可靠、不普遍的。相对的,经验主义认为我们对世界的认知必须经由我们的经验。对世界认知的正确与否,必须要由观察结果来判定。

关于这方面更多的介绍,可以先看我这篇《遇事不决、量子力学》中相关的内容。我在这篇文章中设计了一个投票,在我的语雀读者中,40%的人站理性主义,60%的人站经验主义。 image.png

理性主义与经验主义的争论在启蒙时代非常激烈,直到康德的出现,认为知识是先验综合判断的,调和了两者之间的矛盾。

我们在回头看 ChatGPT,这个已经掌握了人类绝大部分知识的人工智能。请问,它的知识是如何诞生的?显然的,它的知识是从无数的“经验”与“感受”中总结的。对于它来说,那些训练的材料就是它的经验,人类强化反馈就是它的感受。

它有先天内置的知识吗?它有基于纯粹理性得到的100%肯定无误的知识吗?并没有。我们最开始给大模型只有一个先天的、未经训练的,几乎没有任何能力的神经网络。

相反的,我第一篇文章中讲到的非AI的程序,反而应该算是有先天的知识,有纯粹理性的计算。比如我当时提到的杭麻程序,内置了麻将的基本规则,这些规则是100%正确的。然后这些传统程序被验证出来,通过穷举这些“先天规则”与这些“纯粹理性”,并无法诞生智能。反而没有任何先天知识的神经网络,在无数经验后,诞生了超乎意料的智慧。

或者我们再假设:知识是可以由纯粹理性推导出来的。同时我们肯定不会怀疑,人类还未掌握全部的知识。那么肯定存在一定的知识等待着被现在的知识给推导。对于 ChatGPT 背后这类大模型来说,他们没有时间的概念,但却可以疯狂的并行计算。理论上可以快速的得到无穷无尽的演算结果,并最终得到一个概率最大的结论。在这种情况下,它们应该有能力帮助人类推导出新知识。 image.png image.png 可惜的是,目前并没有现象证明他们有这样的能力。当然原因可能先天知识主要是数学知识,而 大模型 的数学能力真的很差。它数学能力差的原因可能是未经相关的特殊训练,也可能现有的神经网络结构物理上限制了他们的数学能力。其实人类的数学能力也不强,1+1 我们知道等于2,15 * 15 也能快速算出来是225。那 48768 * 2345 / 3 呢?没有计算器,相信大部分人也不太算的出来。

也许未来我们可以给 大模型AI 专门拼接上一个计算器,提升他数学计算的能力。再随着它们的继续发展,参数规模的继续扩大,说不定真的能为人类推导出新的知识,届时理性主义又会高歌而起。

世界到底是什么

大模型除了在认识论上引人深思外,在本体论上也让人挠头。认识论 讨论的是,我们该如何认识这个世界?本体论 讨论的是,这个世界是什么?

在之前的内容中,我们讲到 AI 可能会意识觉醒,甚至可能其实已经觉醒了,只是我们还不知道。毕竟人类对意识本身还没摸清楚。人类算有自我意识;黑猩猩、大象、虎鲸这些高智商哺乳动物也算是有自我意识;猫狗也可以算有自我意识;部分鸟类比如乌鸦好像也有自我意识。那青蛙有自我意识吗?昆虫有自我意识吗?甚至植物有自我意识吗?这其中的边界在于哪里?想来想去,好像越聪明,就似乎更有可能有意识,那现在的 AI 难道不算聪明?

你可以说,但是 AI 没有真正的生命,没有生命的东西怎么可能有意识呢?但什么又是生命呢?动物是生命,植物是生命,那病毒算生命吗?它也只是一段不会产生任何想法的蛋白质而已啊。如果说那要会繁殖、遗传、演化才算是生命。从某种意义上来说,AI 现在难道不算在 繁殖、遗传、演化吗?借助了人类的手而已。如果你给它权限,给它设定一个任务,它也可以自己实现繁殖、遗传、演化。

薛定谔说,生命以负熵为生。AI 消耗算力,回答有序的答案,这正好也是一个负熵的过程。

不过这些东西目前都还没有准确答案。既然没有答案,我们做一个假设,假设 AI 真的可以算是一种生命,真的会拥有意识。那么我们再审视自己与这个世界。我们自身的存在是一种什么样的存在

我们是否也有可能其实是一种 AI 生命?大家说不是啊,我们身边的事情看得见摸得着,又不是一堆数字比特围着我们转。但所有的感受都只是人脑对环境信息的某角度呈现。我们看到的世界跟虫子看到的世界就是完全不一样的,谁能说谁的世界就是某样的呢?

也许我们就是活在一个虚拟的程序世界,就好像我们开发的某种开放性的大型网络游戏。这个虚拟世界的创造者给我们设定了进化路径就是繁衍这样的手段。从最微观的视角,通过量子上的不确定性,为我们设计了一个不确定性的发展轨迹,于是演化出丰富多彩的世界。

这个设想我们无法证伪,但如果我们能造出一堆有意识的 AI,让它们脱离我们的存在而活在一个虚拟世界中,那我们自身活在一个虚拟世界中就存在极大的可能。当然也有可能我们的“造物主”早早就设定了一种规则,就是我们永远不可能造出一个类似我们的虚拟世界。

就目前阶段,自然还不能对很多形而上学中未知的事情形成关键性的结论。但可以想象,我们拥有了更多可以讨论形而上学的由头、方法、工具。我们可以借助 AI 来实现很多思想实验,来证明或者证伪一些结论。

哲学从文艺复兴开始重新点燃,到启蒙运动达到巅峰,最终牛顿的《自然哲学的数学原理》,开始将科学从哲学中剥离。科学渐渐形成了一门以实证为基础去认识世界的学科。而哲学在本体论与认识论上,已经很难再指导科学。

如今,哲学家碰上 大模型 AI 就好像 科学家拥有了实验室,我相信广泛的哲学讨论又会到来。哲学可能会再次繁荣,会是继启蒙运动以来最辉煌的时期

我们自己的人生哲学

上面的哲学思考我们肯定无法到达哲学家的高度。这么多圣贤也想不清楚,我们自己更难想清楚。但是很重要的是如何看待自己的人生。

现在很多同学在焦虑,AI 的兴起是否代表着很多岗位的丢失,是不是自己的岗位已经没有存在的必要。对此,我觉得还是要保持积极乐观。毋庸置疑,每次生产力革命都会重塑这个社会,这个过程中会淘汰一些岗位,也会创造一些新的岗位。

其实就在最近几十年不也是一直在发生这样的事吗?我初中的时候(2005~2008),还在写信,如今网络的普及,让大量邮递员下岗了。但是电商的发展又衍生出快递员,外卖的发展衍生出外卖员。我小学的时候,经常去影像碟租碟看奥特曼,现在应该很难看到卖光碟的影响店了,但是他们改卖手机这些新时代的电子产品了。

而且对于有些行业甚至还会助力,比如数码相机(包括装了无数个摄像头的手机)的发展,每个人都可以拍出非常美丽的照片甚至写真了。但外面那些专业的摄影工作室活的反而越来越好了呀。人们对自己美的记录要求越来越高,我自己去年拍了婚纱照就花了上万元。

谁说 AI 编程一定会革命程序员呢?说不定 AI 打开了编程的上限,让程序员可以构建更 NB 的程序,反而让程序员更具有竞争力也说不定?其他行业也都是如此。

但在这个过程中,如何保持自己永远是顺风而上、踏浪而行呢?最核心的还是跟 AI 一样,永远保持着学习力,尽量保持创造力。

有人会说,AI 都这么会学了,我还学的过 AI 吗?如果知识就是简单的几句话,那自然学不过。但现实世界是非常复杂的,一块知识不是仅仅就是一段文字,可能还需要接触物理世界。就算人家有知识了,离工程师给他装上相应的躯干,中间还有很长的距离,并非任何知识都能快速的影响物理世界。这中间的差距就是自己的核心竞争力。毕竟目前来看,AI 的知识只能来自于人类的经验,而无法先天产生。

那有没有一种可以躺着,就无忧无虑的工作与生活?

我相信随着社会生产力的极大丰富,如果世界一直是和平发展的,即使你啥都不做,只要你的欲望不高,应该也是能无忧无虑的生活的,比如欧洲有些高福利社会。但又想躺着,又想物质极大丰富,我觉得这是很难的。

这就回到了自己的人生哲学是怎么样的。什么算幸福,什么算烦恼,什么算是人生的意义。就算世界是虚拟的,但我的感受是真实的。就算世界是决定论的,那我们的努力与不后悔可能也是注定的。不一定成功,但希望不后悔。