本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。
当我们向AI提问时,无论是“今天天气不错”,还是“帮我写一段代码”,你是否想过,机器是如何理解这些由文字组成的句子的?毕竟,计算机的世界里只有0和1。
从我们熟悉的文字,到机器能够处理的数字,中间横跨着一道至关重要的桥梁。今天,我们就来揭开这道桥梁的神秘面纱,探索大模型认知语言的基石——语言的数字化表示,并聚焦于这其中的第一个关键步骤:分词 (Tokenization)。
1 为什么要分词?AI的“备菜”环节
想象一下,我们的大脑在阅读“今天天气不错”时,会很自然地将其理解为“今天”、“天气”、“不错”这三个有意义的单元。
这个将连续的文本,切分成一个个独立“语义单元”的过程,就是分词。
如果说整个AI处理语言的过程是一场盛大的烹饪,那么分词,就是最开始的 “备菜”环节。它将原始、连续的文本“食材”,处理成一个个大小适中、方便后续“烹饪”的词元(Token)。
为什么不直接一个字一个字地处理?
这可能是最符合直觉的想法,比如把“今天天气不错”拆成“今”、“天”、“天”、“气”、“不”、“错”。但这种方式会带来两个致命问题:
语义的迷失
单个汉字往往有多种含义。在“今天”里,“天”指“一昼夜”;而在“天气”里,“天”则指“气候”。如果只看单个的“天”,AI就会感到困惑。英文中这个问题更严重,把“Apple”拆成“A-p-p-l-e”,字母本身几乎不携带任何意义。
效率的瓶颈
一个字一个字地拆,序列会变得非常长,这会极大地增加模型的计算负担,让AI的思考变得异常缓慢。
因此,我们需要一种更高效的单元——词语,或者说Token。
| 什么是Token?
在大模型领域,Token 就是分词后得到的基本语义单元。它通常是一个词(如“天气”),有时也可能是一个字(如“的”)或一个符号。
划重点:Token不仅是技术概念,它和你的钱包息息相关!
- 衡量大模型生成速度的单位是 Token/秒。
- 我们调用大模型API的费用,也是按处理的 Token数量 来计算的。例如,某模型可能是“每百万Token输入4元,输出12元”。
理解了Token,你就理解了大模型计价和衡量性能的基本单位。
2 分词技术演进:从“查字典”到“拼积木”
那么,机器具体是如何实现分词的呢?这项技术也经历了一场有趣的演进。
基于词典
这是最古老也最直观的方法,核心思路很简单:
准备一本超级大的词典。
让机器拿着句子,从头开始在词典里找一个最长的、能匹配上的词。
我们用“乒乓球拍卖完了”这句话来举个例子。假设词典里有“乒乓”、“乒乓球”、“球拍”、“拍卖”、“完了”等词。
机器从第一个字“乒”开始,发现最长能匹配上的是“乒乓球”。好,切出第一个词。
接着处理剩下的“拍卖完了”。从“拍”开始,最长能匹配上的是“拍卖”。切出第二个词。
最后剩下“完了”,匹配词典,切出“完了”。
最终结果:“乒乓球” / “拍卖” / “完了”。
这种方法虽然简单,但有两个硬伤:
“贪心”的歧义
它很容易因为“贪图”最长的匹配而犯错。人类一看就知道应该是“乒乓球拍”/“卖完了”,但因为词典里没有“乒乓球拍”,算法就做出了错误的选择。
致命的“未登录词”
如果出现一个新词,比如“DeepSeek”,词典里根本没有。机器就会彻底懵掉,无法识别这个关键信息。
子词切分
为了解决上述问题,现代大模型普遍采用一种更聪明、更灵活的策略——基于子词(Subword)的分词。
它的核心思想是:不要把词语看成是不可分割的整体,而是看作由更小的、有意义的“子词”积木拼成的。
这种方法的好处是显而易见的:
轻松应对未知词
遇到不认识的“smartphone”,可以拆成认识的“smart”和“phone”来理解。
高效学习语义
像“learn”、“learning”、“learner”这些词,都可以共享“learn”这个积木块,模型能更快地理解它们之间的关联。
控制词典规模
我们不需要一本无限大的词典,只需要一套有限但高效的“积木块”,就能拼出几乎所有的词汇。
目前最主流的“拼积木”算法之一叫做BPE(字节对编码)。它的构建过程就像一个有趣的合并游戏:
初始阶段:把所有单词拆成最基本的字母。
迭代合并:在整个语料库里,找出出现频率最高的相邻组合,比如 u 和 g 总是同时出现,就把它们合并成一个新的积木块 ug。
不断重复:持续这个过程,不断合并,产生像 un、hug、 (代表单词结束) 这样的新积木块,直到积木库(词典)达到预设的大小。
通过这种方式,BPE算法为模型打造了一套极其强大且灵活的“词汇积木”,让模型既能认识常见词,又能理解生僻词和新词。
3 总结
今天,我们一起探寻了AI理解人类语言的第一步——分词。
我们了解到,分词就是将文本切分为Token的过程,它是后续所有处理的基础。我们还对比了两种主流技术:传统的“查字典”法和现代大模型普遍采用的“拼积木”法(子词分词)。
正是后者这种灵活的策略,才让今天的AI能够从容应对日新月异、千变万化的网络新词和专业术语。
当然,将文本切分成Token只是第一步。接下来,模型还需要将这些Token转化为包含丰富语义信息的数字向量(Embedding),这才是真正让机器“理解”语言内涵的关键。
这个神奇的过程,我们将在下一期内容中为大家揭晓。
学习资源推荐
如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。
本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI。