从LLM到Agent的进阶之路(三):揭秘大模型思考的第二步:词嵌入——大模型如何“理解”了文字的意义

82 阅读8分钟

本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI

今天,我们从一个看似简单却至关重要的问题开始:AI模型,到底是如何“读懂”人类语言的?

当我们向AI大模型输入“今天天气不错”,它看到的并不是这六个汉字,而是一串冰冷的数字。然而,它却能从中理解语义,并生成富有逻辑和情感的回应。

这一切都源于AI心智的起源——词嵌入 (Word Embedding)。

一、 从符号到数字:文字向量化

在AI模型内部,所有运算都基于数学。因此,在我们深入Transformer的复杂结构之前,必须解决一个更根本的问题:如何将离散的、符号化的文字(Token),转化为机器可以处理的、有意义的数字?

这条“进化之路”充满了挑战,也见证了AI对语言理解的逐步深化。

  1. 最初的尝试:索引与独热编码的困境

最直观的想法,莫过于给每个字或词编一个号。就像字典里的页码,“今天”是100,“天气”是120。

例如,假设“今天天气不错”这个句子被切分为“今天”、“天气”、“不错”三个词,若“今天”在词典中对应的位置为100,“天气”在词典中的位置为120,“不错”在词典中的位置为230,那么“今天天气不错”可以被表示为:[100, 120, 230]。

这种方式看似简单合理,但存在一个严重的问题:无法表示Token的语义。用索引来表示Token,数字完全取决于Token在词典中的位置,跟Token的含义无关。 从数字表示上看,一些差距较小的数字,例如1、2或3、4等,在数字上的差距较小,但是所代表的Token含义可能完全不同。

而一些含义相近的Token,例如“西红柿”、“番茄”,在词典中可能一个在第200位,另一个可能在第1888位,这两个数字差距非常大,但所代表的Token含义相似。

后来,一个更“科学”的方法出现了——独热编码 (One-Hot Encoding)。假设我们的词典只有三个词:“今天”、“天气”、“不错”,那么:

“今天” -> [1, 0, 0] “天气” -> [0, 1, 0] “不错” -> [0, 0, 1]

这种表示法在传统机器学习中很常见,但对于拥有数万甚至数十万词汇的自然语言处理而言,它带来了两个致命缺陷:

维度灾难与稀疏性

以DeepSeek为例,DeepSeek模型的词表大小超过12万。如果用独热编码,每个词的向量就是12万维,其中只有一个1,其余全是0。这在计算和存储上都是一场噩梦。

语义的缺失

更严重的是,从数学上看,任何两个不同的独热向量都是正交的。在向量空间中,正交意味着“毫无关系”。这意味着,“西红柿”与“番茄”的关系,和“西红柿”与“飞船”的关系是完全等价的。这显然是对人类语言丰富内涵的巨大误读。 这些早期的尝试,仅仅是将文字变成了“数字符号”,却未能赋予这些数字“灵魂”——也就是语义。

  1. 词嵌入的“降维打击”

词嵌入技术,正是为了解决上述所有问题而诞生的。它的核心思想,源于语言学中一个优雅的假说——分布假说 (Distributional Hypothesis):

分布假说

“一个词的意义,由它上下文中的词所决定。” (You shall know a word by the company it keeps.)

简单来说,如果“国王”和“女王”都常常与“城堡”、“统治”、“国家”一同出现,那么它们的意义就是相近的。

基于此,词嵌入不再将词视为孤立的符号。它通过一个专门训练的神经网络(如Word2Vec, GloVe,嵌入层等),将高维、稀疏的独热向量,“压缩”成一个低维、稠密的实数向量。这个模型的最常用的训练方法是:输入一句话,并将其中的一个词语抹掉,让模型根据其它词语预测这个词语。

词嵌入的过程,堪称一场“降维打击”:

  • 维度从词典大小(如DeepSeek的129,280)急剧压缩到几百或几千维(如DeepSeek的7168维)。
  • 向量从只有一个1的“稀疏”状态,变为每个元素都是非零浮点数的“稠密”状态。
  • 最关键的是,这场“压缩”并非信息的损失,而是语义的注入。原本冰冷的向量,从此拥有了“温度”和“意义”。

二、 语义空间

那么,一个词嵌入向量,究竟代表了什么? 它代表了一个词在某个高维语义空间中的精确“坐标”。 让我们将这个高维空间简化为一个二维平面来理解。 假设一个词嵌入向量的长度为2,向量的第一个元素为x,第二个元素为y。在这个空间里,每一个词都是一个点。你会惊奇地发现:

在这个空间中,语义相近,则空间相邻: “国王”与“女王”、“男人”与“女人”这些词,会自然地聚集在一起。我们可以通过计算向量间的余弦相似度来量化这种“亲疏关系”。

关系可计算,则语义可推理: 更神奇的是,这些“星座”之间还存在着奇妙的几何关系。从“男人”指向“女人”的向量,几乎与从“国王”指向“女王”的向量平行且等长。这意味着:

v("国王") - v("女王") ≈ v("男人") - v("女人")

其中,v("国王")表示“国王”这个词的词嵌入向量。

这个关系可以解释为:“国王”跟“女王”的差距与“男人”跟“女人”的差距差不多。

我们把这个式子变换一下:

v("国王") - v("男人") + v("女人") ≈ v("女王")

这个解释更为直观:“国王”减去“男人”,再加上“女人”,就约等于“女王”。这个解释更加符合我们的认知。

这个经典的类比关系,说明AI能够用数学运算,捕捉到了语言中“性别”这一抽象概念。向量空间中的方向,开始对应现实世界中的特定语义关系。

三、 从“词”到“世界”

掌握了表示“词”的方法后,嵌入技术的征途便奔向了星辰大海——表示更复杂的概念。

  1. 句子嵌入

现在,我们已经理解了如何把一个词转为一个词嵌入向量,让我们考虑一个更复杂的问题,如何用向量表示一个完整的句子?

简单地将这句话所有词向量相加或平均,会丢失至关重要的语序信息,比如“我为人人” 和 “人人为我”,两个句子将会得到相同的向量,但语义完全不同。

现代大模型通过其核心的自注意力机制,动态地为句子中的每个词生成一个“上下文感知”的嵌入。最终,整个句子被编码成一个能概括其核心思想的、独一无二的向量——句子嵌入。

这项技术,直接催生了语义检索的革命。我们不再依赖关键词,而是能真正理解查询意图,从海量知识库中找到最相关的答案。这,便是当今大热的RAG(检索增强生成)技术的核心基石,我们将在后续内容中深入拆解。

  1. 多模态嵌入:打破感官的次元壁

我们的世界是多模态的——有文字、有图像、有声音。为了让AI拥有更完整的“世界观”,多模态嵌入应运而生。

它的目标,是创建一个统一的、跨越所有感官的“概念空间”。在这个空间里:

一张猫的图片,和文字“一只可爱的猫”,它们的向量坐标将无限接近。

通过这种方式,模型得以在视觉和语言之间建立起一座坚实的桥梁,从而实现了“看图说话”、“以文生图”等令人惊叹的跨模态能力。

例如,我们可以实现这样一个效果:

我们通过两句诗词:“正是江南好风景,落花时节又逢君”,分别在一个庞大的图像库中,检索它们对应的图像,就实现了这样一个效果。

四 结语

从简单的数字索引,到蕴含宇宙奥秘的词嵌入向量,我们走过了AI理解语言的第一里路,也是最重要的一里路。 词嵌入层,正是整个AI大模型的“地基”。这块基石的质量,直接决定了 Transformer 所能达到的高度和稳固性。

在下一期中,我们将沿着数据的流向继续向上,探索大模型是如何基于这些嵌入向量,一步步“思考”并生成下一个词的。

学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

本文较长,建议点赞收藏。更多AI大模型应用开发学习视频及资料,在智泊AI