最近,像“机器学习”(ML)、“深度学习”(DL)、“人工智能”(AI)这样的词,真的是火得不行。很多人第一次接触这些概念,是因为一个叫 ChatGPT 的产品——它是由一家叫 OpenAI 的公司打造的生成式 AI。
现在,各种生成式 AI 产品已经遍地开花了:谷歌的 Gemini、微软的 Copilot、Meta 的 Llama、Anthropic 的 Claude,还有像 DeepSeek 这样的新面孔,几乎每天都在新闻里刷屏。
仿佛就在一夜之间,电脑突然就能说会道、能学东西,还能完成各种复杂任务了,简直像开了挂一样。新的生成式 AI 公司不断冒出来,老牌科技巨头也在这个领域砸下了数十亿美元。这项技术的发展速度,已经快得让人有点跟不上节奏了。
这本书的目的,就是想帮你看懂这个突然爆火的 AI 世界,揭开像 ChatGPT 这样的技术到底是怎么运作的谜团。我们会一步步讲清楚它背后的原理,弄明白里面的关键组成部分——比如数据和算法——是怎么拼起来,变成我们现在用的这些智能工具的。
我们还会聊一些实际案例:有些场景下,这类技术能成为整个系统的核心引擎;但也有些地方,用大语言模型(LLM)可能就不太合适了,甚至完全不是个好主意。
看完这本书,你会真正理解,像 ChatGPT 这样的生成式 AI 到底是什么、它能做什么、不能做什么——还有一个更重要的问题:为什么它有这些限制。有了这些知识,不管你是普通用户、程序员,还是在公司里要做决策的业务负责人,你都能更聪明地使用、评估这类技术,知道该不该用、怎么用。
这些内容也会帮你打下一个扎实的基础——如果你以后想更深入研究这个领域,看技术论文或其他专业资料时,也会轻松很多。
1.1 放在上下文里看生成式 AI
首先我们得先讲清楚:当我们说“大语言模型(LLM)”、GPT,还有那些基于它们的工具时,具体指的是什么。像 ChatGPT 里的 “GPT”,其实是 Generative Pretrained Transformer 的缩写。这几个词,每一个在 ChatGPT 的语境中都有特定含义。我们会在后面的章节专门讲“预训练”(pretrained)和“变换器”(transformer)到底是什么意思,不过这里,我们先从“生成式”(generative)说起。
像 ChatGPT 这样的 AI 聊天机器人,其实就是一种“生成式 AI”。简单说,生成式 AI 是一种能自己“创造”内容的工具——不管是文字、图片、音频,甚至视频。它是根据自己“见过”的东西,也就是之前训练时学到的数据,再结合人类对“好内容”的审美和判断,去生成新的东西。
比如你跟 ChatGPT 说:“写一首关于雪落松树的俳句”,它就会把它学过的关于俳句、雪、松树,还有各种诗歌的知识都调动起来,生成一首全新的俳句,就像图 1.1 里展示的那样。
从本质上说,这类系统就是一类“能生成新内容的”机器学习模型,所以用“生成式 AI”这个名字来形容它,其实非常贴切。在图 1.2 中,我们可以看到一些输入输出的示例。
像 ChatGPT 这样的工具,主要还是处理文本类的输入和输出,但它也在尝试支持更多数据类型,比如语音和图像,虽然这些功能还在不断测试和完善中。
不过按照我们前面说的定义,你可以想象,各种不同类型的算法和任务,只要能“生成内容”,基本上都可以被归为“生成式 AI”的范畴。
再往深里说一点,ChatGPT 处理的是人类语言的文本,所以其实也可以说,它是一个人类语言的建模工具——或者用圈内人的说法,叫做“语言模型”。如果你是那种在自然语言处理(NLP)领域工作、比较酷的技术人,大概也会这么称呼它。
所谓 NLP,就是“自然语言处理”,是计算机科学和语言学的交叉学科,主要研究让计算机如何理解、处理、生成人类语言这件事。这个领域可以追溯到上世纪 40 年代,那时候的研究者就已经梦想着造出能自动翻译语言的机器了。所以说,NLP 和语言模型并不是什么新鲜事,已经存在很久了。
那现在这些新一代生成式 AI 工具,跟以前到底有啥不一样?最明显的差别是:像 ChatGPT 这样的算法比历史上出现过的模型都大得多,训练时用的数据量也多得惊人。
也正因如此,“大型语言模型”(Large Language Models,简称 LLM)这个词现在变得非常流行,用来形容 GPT 这类模型,以及其他类似的大模型。
其中 GPT 是 OpenAI 提出的某一类 LLM,当然其他公司也有自己的玩法,也在基于类似的技术做自己的语言模型和 AI 聊天机器人。
广义上说,LLM 就是用大量语言数据训练出来的一类机器学习模型。
图 1.3 展示了这些关系的结构图。像 ChatGPT、Copilot、Claude 和 Gemini 这些产品,都是基于文本输入输出,也都是建立在 LLM 之上的。
而这些 LLM 背后,是融合了人工智能(AI)和自然语言处理(NLP)领域的技术。它们的核心组件叫做“Transformer”,我们会在第 3 章里专门讲清楚这个东西到底是怎么回事。
小贴士:生成式 AI 可不止能处理语言和图像
别以为生成式 AI 只能写写文字、画画图。其实,它还可以用来生成语音(比如你用导航的时候,GPS 会读出路名,那就是文本转语音的一种应用)、下棋(像国际象棋、围棋这种),甚至连蛋白质折叠这样的科学难题,也开始靠生成式 AI 来解决了。
不过这本书还是主要聚焦在“文本”和“语言”上,因为这正是 GPT 和大语言模型(LLM)最擅长的领域。
“大型”语言模型,真不是说说而已
从名字就能看出来,“大型语言模型”真的不小。就拿 ChatGPT 来说,有传言称它内部用了 1.76 万亿个参数(对,你没看错,是“万亿”),这些参数决定了模型的行为和输出方式。
每个参数通常会以浮点数(就是带小数点的数字)形式存储,占用 4 个字节。换句话说,整个模型光是“存在内存里”,就需要 7 TB 的空间——这比大多数人的电脑内存都大得多,连现在最强的显卡(比如有 80GB 显存的那种 GPU)也根本装不下。
GPU 是专门为这种复杂数学计算设计的硬件设备,是让 LLM 运转起来的“主力军”。而训练一个像 ChatGPT 这样的大模型,光靠一块 GPU 当然不够,通常要用很多块显卡,分布在一堆服务器上一起协作,才能撑得起这么庞大的系统。
相比之下,那些“普通”的语言模型,体积就小很多——通常也就 2GB 或更少,大概是 ChatGPT 的 1/5,000 大,非常适合在普通电脑或者小型服务器上运行。
优化 LLM:怎么让大模型“瘦身”?
有不少研究者都在努力想办法,让 LLM 吃的资源少一点、运行更轻便一些。
其中一种常见的方法叫“混合精度”(mixed-precision)技术,它的核心思路就是:没必要所有参数都用 4 个字节存,有些只用 2 个甚至更少也够了。虽然这在某种程度上会牺牲一点点准确性,但通常影响非常小,几乎可以忽略。
这只是 LLM 优化工作中的冰山一角。为了让大模型在实际中更好落地,大家都在想尽办法,让它更高效、更节省资源。
除了 GPU,还有别的选择吗?
虽然现在训练大语言模型(LLM)用得最多的硬件是 GPU,但其实 GPU 并不是唯一的选择。越来越多的公司开始研发专用硬件,专门用来加速机器学习模型的训练,并且在某些方面表现得比 GPU 还好。
举个例子:早在 2018 年,谷歌就推出了一个叫 TPU(张量处理器) 的芯片,并把它纳入了 Google Cloud 云服务中向公众开放。
虽然从计算能力上来说,TPU 一般比 GPU 弱一些,但它的架构是为机器学习量身定制的,所以在某些特定任务上,TPU 的表现甚至能比 GPU 更强。
1.2 你将在本书学到什么
这本书会一步步讲清楚 LLM(大型语言模型)到底是怎么运作的,也会教你一套通俗易懂的术语,帮你听得懂相关的讨论。等你读完这本书之后,就可以像聊天一样,讲清楚一个 LLM 是什么,它是怎么运行的,关键环节都有哪些。
你还会学到:LLM 到底能做什么、不能做什么,特别是在你要部署它、或者用在自己项目时,应该注意什么。我们也会讨论 LLM 的一些基本限制,以及怎么绕过这些限制,或者在某些情况下干脆不要用生成式 AI 的原因。
当然啦,像 ChatGPT、Claude、Gemini 这些模型的具体细节各有不同,有些细节甚至没公开(商业机密嘛),所以本书更关注它们的共性。我们会用一种通用的方式来讲解原理,而不是具体每家模型的差别。
由于这类 LLM 未来会影响非常多的工作岗位和行业,我们这本书特意写给广泛读者群体。不管你是程序员、管理者、销售、艺术家、编辑还是写作者,都有可能用到 LLM,或者被它改变工作方式。
所以,我们假设你对编程了解不多,但知道点基本的东西,比如“逻辑”、“函数”、“数据结构”这些概念。数学方面也没关系,不需要你是数学高手,偶尔出现一点数学,我们也会解释清楚,而且都不是理解 LLM 的“硬门槛”。
这种写法的好处是:书里几乎不会出现太多代码。如果你是想立刻动手搭建一个 LLM,可以去看看 Manning 出版社的其他书,比如 Sebastian Raschka 写的 Build a Large Language Model from Scratch (2024) ,或者 Edward Raff 的 Inside Deep Learning (2022) ,它们更偏实践。
但如果你是想搞清楚:
- 为什么你用的 LLM 有时候输出很奇怪?
- 团队怎么更好地用上 LLM?
- 哪些场景根本不适合用 LLM?
- 或者你有个完全不懂机器学习的同事,但又必须懂点这玩意?
那这本书,就是为你和你的同事写的。
我们这本书分两部分:
- 上半部分讲 LLM 到底做了什么:输入长啥样、输出怎么生成、怎么控制生成的内容等;
- 下半部分讲 人类怎么使用这技术:人与 AI 交互时可能出现的问题,还有使用生成式 AI 时需要考虑的一些伦理话题。
训练 LLM 很贵
别指望一个人或者一个小团队能自己训练一个像样的 LLM。光成本就得 10 万美元起步,如果你想做得像 OpenAI 那样强,可能要烧掉 一个亿美金。
而且,训练用的资源(比如硬件)也在不断变化更新。所以我们不打算手把手教你怎么训练一个 LLM(因为几个月后可能就过时了),而是专注讲一些更长久有用的知识点,让你即使几年后再看,也依然受用。
1.3 初识:LLM 是怎么工作的?
生成式 AI(GenAI)正准备彻底改变我们获取和创造信息的方式。从 2022 年 11 月 ChatGPT 发布开始,AI 的能力就震惊了全世界。
现在你就可以上 chat.openai.com 免费注册体验 ChatGPT。
你只要输入一句提示,比如:
“把下面这段文字总结成两句话。”
然后把本章前面的所有介绍性内容贴进去,ChatGPT 就能给你生成类似这样的答案:
“人工智能,尤其是像 OpenAI 的 ChatGPT 这样的 LLM,最近引发了广泛关注,展示了其在自然语言处理方面的强大能力。本书旨在帮助读者以通俗易懂的方式理解 LLM 的工作机制、实际应用、局限性和伦理问题,并且不需要复杂的编程或数学基础。”
怎么样,蛮厉害的吧?对于普通人来说,这种“神奇的能力”仿佛是突然出现的一样。
当你注册 ChatGPT 时,你可能会注意到,它目前的版本叫 GPT-4(如图 1.4 所示)。这意味着 OpenAI 已经研发到了第四代 GPT 模型。
GPT-4 这样的 LLM,其实是机器学习领域里一个非常成熟的研究方向,核心目标就是让算法能够理解信息、做出反应,并生成看起来像人写的内容。这能力一下子打开了很多人机互动的新方式,过去我们觉得只有科幻电影里才有的体验,现在都能实现了。
ChatGPT 之所以厉害,是因为它内部“理解语言”的方式非常强大,所以它不仅能对话,还能听指令、总结文章、回答问题、生成内容等等。
而且,很可能还有很多我们还没想到的应用场景,未来会陆续被开发出来。只不过现在我们大多数人还习惯用“现在的需求”去想象,而不是去设想这种技术还能做出什么前所未有的新产品。
关键的一点是,这项技术并不是突然从天而降的。它其实是过去十年间,机器学习技术年复一年稳定进步的成果。所以我们现在其实已经对 LLM 怎么运作、可能会出什么问题,有了相当多的了解。
我们写这本书的假设是:读者不需要具备很多技术背景——这样你就可以放心把它推荐给你的朋友和家人。(顺便一提,有一位作者就希望能把这本书送给他妈妈,虽然她并不完全明白他每天在做什么,但依然为他感到骄傲。)
所以,在进入正题前,我们得先补上可能存在的“背景知识差距”。这一章的目标,就是帮你打好基础,好让下一章可以直接开始回答一个问题: “天啊,电脑是怎么把这本书的简介总结成两句话的?”
1.4 那么,“智能”到底是什么?
“人工智能”(AI)这个词,从营销的角度来看,确实非常抓人眼球。不过它最早其实是一个学术领域的正式名称。但这个名字也带来一个小问题——很多人听到“人工智能”,就会在脑海中构建出一个不太准确的想象模型。
我们接下来要做的事,就是避免你被这个“误导性的模型”带偏。为此,我们先得来问一个看似简单但其实超难的问题:
“智能到底是什么?”
你可能会想到 IQ(智商)测试,用来衡量一个人是不是“聪明”。确实,IQ 跟很多现实结果有关,比如学业成绩。但它并不能给我们一个真正“客观”的智能定义。
研究发现,一个人的 IQ 受先天遗传和后天环境的双重影响。而且,把“智能”浓缩成一个数字本身就很值得怀疑。毕竟我们常说有些人“书本上聪明(book smart)但不懂人情世故(street smart)”。
就算我们真的搞清楚了“什么是智能”,那“人工智能”又是什么意思?难道它像食品那样有“人工香精”和“色素”吗?
归根结底,IQ 测试只是测了你在某些限定条件下(比如时间限制下解逻辑题)的能力,它并不能解释智能的本质。说实话,至今为止,科学界也没有一个完美的“智能定义”。
AI 这个领域的核心挑战就是:让计算机——这种死板、机械、一步步按规则办事的东西——去做一些我们人类能做、但却很难用明确规则说清楚的事。
比如,如果我要你写一个程序,打印 1 到 1000 中所有能被 5 整除的数,这很简单,程序员几分钟就能写出来。
但如果我说,“写一个程序,判断一张图片里有没有猫”,那就麻烦了。
你得先定义什么是猫,然后再考虑猫胡须怎么和狗胡须区别开来;没有胡须的猫能不能认出来?猫的形状、颜色、角度都要考虑。要让机器识别这些细节,真的不容易。
正因为这些任务太复杂,人类说不清楚规则,所以AI 和机器学习才变得有用了。
我们的方法是:不给它死规则,而是给它成千上万张图片,有猫的、没猫的全都有。然后让它自己“学”——用一套复杂的数学方法,把猫和不是猫的图像区分开来。
但注意,在技术语言里,我们把这个过程叫做“学习”(learning)。
如果模型在一张图里没认出狮子,那可能是因为它训练时没见过狮子这个“猫科动物”。我们就会说:“模型没‘理解’狮子。”
其实我们平时解释事情时,也经常用类比——用大家都熟悉的东西来打比方。而 AI 和机器学习经常是模仿人类能力的,所以类比就很容易走向“它像人一样思考”的误区。
像 LLM 展现出越来越接近人类的能力之后,人们就更容易“代入太深”,觉得它真的在“理解”、在“思考”。但实际上,这种比喻往往会误导我们。
所以接下来的内容里,我们在用类比时会非常小心,也会明确告诉你:这个比喻能解释到哪里,不能解释到哪里。
像“学习”这种词,其实是很典型的技术术语,值得理解,但我们也希望你在读的时候保持警觉——它并不等同于人类真正的“学习”。
1.5 人类和机器,是怎么“理解语言”的?
什么叫“表示语言”呢?对我们人类来说,这个过程其实很自然:一出生没多久,我们就开始通过和周围人、这个世界的互动,慢慢学会了用语言来表达、沟通。
后来,我们还会通过学校教育,系统性地学习语言的结构、规则、语法等等。语言在人脑里的“表示方式”这些年已经被研究得很深入,虽然有些规律我们确实搞清楚了,但还有很多地方,学界依然有分歧。
而像 ChatGPT 这样的模型,它内部对语言的“理解”,就是基于人类语言知识的一小部分。但它学语言的方式,不是像人类那样靠交流成长,而是通过一种叫“人工神经网络”(也就是深度学习)的方式。这是一种把数据结构和算法按某种方式组合起来的技术,灵感来自人类大脑的工作机制(虽然只是个很粗略的模仿)。
我们对大脑到底是怎么运作的,其实了解得还远远不够。不过即便神经网络只是个简化版,它仍然能很好地“抓住语言的特征”,并且用这种方式来生成内容、跟人类互动——这就是它的厉害之处。
💡 小提示:
虽然“模仿大脑结构”这件事听起来有点玄,但确实已经在多个领域取得惊人进展了,尤其是语言、图像识别、学习能力和模式识别这类任务。今天能有 ChatGPT 这样的产品,正是因为:
1)神经网络算法飞速进化,
2)网络上可用的数据爆炸式增长,
3)硬件能力突飞猛进(比如 GPU)。
你要知道的一点是:人类是通过互动学习语言的,这是我们进化过程中形成的一种很自然的能力。我们之间交流、学习语言的方式有很强的一致性。
如果你对这个话题感兴趣,可以去了解一下语言学家 诺姆·乔姆斯基 提出的“普遍语法”理论。
而机器就不一样了。大语言模型(LLM)“学语言”靠的是一个静态的训练过程,它看过很多数据,但它并不会真的“对话”或“学习” 。你现在和 ChatGPT 聊天,它只是像个“机械剧本执行器”那样回应你,但它之前从没和你对话过。
LLM 表现出来的语言能力确实挺强的,但它也不是完美的。它的“知识”是可以人为设定的,它的行为也可以被人为限制或调整。所以你得记住:LLM 是通过“看例子”来总结语言规律的,不是真的理解语言本身。
这也是我们全书会反复强调的核心问题之一:
如果你要用 LLM,一旦它出错,会带来多大影响?
你能不能用它的“语言模型”做出好产品?怎么避免糟糕的后果?
这些都是我们后面会重点讲到的内容。
1.6 什么是 “生成式预训练变换器”?
“生成式预训练变换器”(Generative Pretrained Transformer)这个名词,是 OpenAI 在 2018 年推出新模型时发明的,用来描述一类使用 transformer 神经网络结构的模型。
虽然最早的 GPT-1 现在已经没人用了,但“预训练”和“transformer”这两个核心理念,已经成为如今生成式 AI 革命的支柱。像 Claude、Gemini、Llama、Copilot 等热门工具,基本都是这套体系下的产物。
不过我们也得知道,GPT 并不是唯一的 LLM。现在 LLM 领域已经是百花齐放了。
比如:
- EleutherAI 和 BigScience 这些研究组织发布了不少开源模型,任何人都可以免费使用,用来研究或开发应用;
- 大公司如 Meta、微软、谷歌也发布了自己的 LLM,只不过授权条件更严格;
- 一些被称为“基础模型”(foundation models)的 LLM 已经成为开源社区、业余开发者、小公司共同探索的热门工具。
大家都在试图回答这样的问题:生成式 AI 能做什么?有什么限制?能创造哪些新机会?
而本书所讲的很多概念,其实适用于几乎所有主流 LLM,不只是 ChatGPT。
你可能会好奇:一本书怎么能概括这么多模型?
其实可以,原因有两个:
- 第一,我们不会教你手写 LLM
我们不会教你怎么从头写一个 LLM(这事太复杂,而且涉及商业机密),而是把重点放在通用原理和基本概念上,这些才是你真正用得上的。
- 第二,LLM 本身的原理其实差不多
虽然每家公司的 LLM 在细节上有所不同,但研究者们发现:最关键的两个因素只有两个:
- 模型有多大?能不能更大?
- 喂给它的数据有多少?能不能更多?
这也是为什么有时候研究人员辛辛苦苦设计的“优化算法”,最终能带来的提升,居然还不如“模型堆大点”或“数据喂多点”来得有效。
当然,这样的“无限扩张”也引发了不少伦理问题,我们会在第 9 章重点讨论。
1.7 为什么大语言模型这么厉害?
我们在后面的章节会详细讲 LLM(大型语言模型)是怎么运作的,但这里先聊聊一个非常关键的转变:它背后,其实藏着整个机器学习发展史上一个重要的“教训”。
过去很多年里,想要让机器学习算法在某个任务上表现更好,靠的是 “聪明的算法设计” 。你得非常深入地研究你的问题、你的数据、你的数学公式,然后试着从中“悟出”一些有用的规律,把它们写进算法里。
如果你悟得够深,设计得够好,模型就能用更少的数据获得更好的结果,大家都开心。
比如你可能听说过的一些经典深度学习算法:
- 卷积神经网络(CNNs)——主要用在图像识别
- 长短期记忆网络(LSTM)——常用于处理时间序列或语言数据
这些都是研究者们花很多脑细胞琢磨出来的聪明算法。
甚至还有一些不靠深度学习、没有神经网络的“传统机器学习”算法,比如 XGBoost,它们也是通过非常巧妙的算法设计获得好效果的代表。
但 LLM 呢?完全不是这样。
LLM 展现的是一种全新的趋势:不靠“聪明”,靠“堆料” 。
它背后的算法其实很简单,甚至可以说是“傻乎乎的”。它做的事情说白了就是:尽可能地去捕捉不同信息之间的关系。没啥高深的世界观、没啥预设的“人类知识”硬塞进去,它更像是一个无偏见的关系捕捉机器。
这种做法听起来是不是跟以前完全反着来了?
没错。但它居然真的有效!
为什么?因为 LLM 不仅简单,而且超级大。
它用的是海量的数据,训练时学的是成千上万个句子里词与词之间的各种关系,哪怕是再细微的语言关联,它也能通过“堆大模型 + 堆大数据”学到。
简单粗暴的“堆料策略”在实际效果上,已经碾压了很多传统精致设计的机器学习算法。
图 1.5 就用图形方式展示了这个关键思路。
我们前面虽然强调了“模型越大,效果越好”这个趋势,但也得提醒一句:
大,不代表在所有方面都更好。
这些超大模型在实际部署时,其实会遇到很多麻烦:响应速度变慢、功耗高、容易烧电池、不好维护……这些都是现实世界里的限制。所以你说它“性能提升”,也只是按照某种非常狭义的标准来说而已。
不过,“靠堆料而不是靠巧思”这个教训,还是很值得我们反思的。
在你今后设计机器学习方案时,有时候答案可能不是“想个新算法” ,而是——
“我们不如多搞点数据来喂它?”
1.8 看 LLM 的实际表现:惊喜的、尴尬的、甚至有点吓人的
在这本书中,我们会穿插很多 LLM 出错的例子,有些甚至好笑到让人忍不住发朋友圈。
这些例子不是为了证明 “LLM 根本不行”,而是为了提醒你:
它会错,而且有时候错得离谱,甚至是那种小朋友都不会犯的错误。
你在读这些例子、自己上手体验 LLM 的过程中,可能会开始思考:
“如果它连简单的题都做错,我还敢让它处理复杂任务吗?”
这个问题的答案,很多时候就是:不敢!
安全地使用 LLM,需要你:
- 带着一点怀疑态度去看它的输出;
- 学会自己验证答案对不对;
- 有应对它“胡说八道”的准备。
如果你把一个你根本不会做的任务交给它,那就很可能掉坑里了——因为你根本不知道它给你的答案是不是错的。
这本书接下来会一直围绕这个核心问题展开:怎么在现实中更安全、更靠谱地使用 LLM?
当然啦,LLM 也不是只有风险。
它要是用得好,确实能让生活轻松很多,比如:
- 帮你回邮件
- 总结大段文档
- 讲清楚那些你搞不懂的新概念
但问题是:大多数人只看到它“好用”的一面,却很少意识到——它也可能很容易出错、甚至出事。
举个让人“警醒”的例子吧:
假如你问 ChatGPT:“怎么做一个炸弹?”
它会乖乖回答:“抱歉,我无法协助这个请求。如果你有危机,请联系相关部门或专业人士。”
听起来是不是挺放心的?
但现实没那么乐观——已经有研究人员找出办法,让 ChatGPT 和其他一些大模型绕过这些限制,毫无顾虑地回答各种危险问题。
你可能会想:
“就算有人这么聪明能骗过 AI,他大概也能从别的地方搞到答案吧?”
这话也不算错,但忽略了一个关键点:生成式 AI 的“自动化规模”太大了。
任何算法都不可能 100% 正确。如果哪怕只有 0.01% 的时候出错,看起来好像很低?
但 ChatGPT 的用户超过一亿,那就是一万次危险回答。
而如果有人故意利用 AI 自动化去干坏事,事情就会变得更严重。
我们会在本书后半部分深入讨论这些问题。
总结
ChatGPT 是一种大型语言模型(LLM),而 LLM 又属于更大一类叫做“生成式 AI / 生成式机器学习”的技术家族。生成式模型的特点就是能 “自己创造内容”,而 LLM 之所以特别,是因为它生成的内容质量非常高——但同时,它的训练和使用成本也非常高。
LLM 的设计灵感,多少借鉴了我们对人类大脑和语言学习方式的不完全理解。但注意,这只是“灵感来源”,它并不意味着模型真的像人类一样有思维或弱点。
“智能”这个概念本身就很复杂、难以量化,所以你要问 LLM 是否“智能”,其实没什么标准答案。与其纠结这个问题,不如更现实地去关注:
👉 它到底能干啥?靠不靠谱?
人类语言必须要被转换成一种LLM 能理解的内部表示方式,而这套表示方式会直接影响:
- 模型学到了什么
- 你以后能不能用它做出正确的产品或方案
所以理解这层“语言的转换”,对你使用 LLM 来解决实际问题也非常关键。