Word Embedding 为自然语言处理任务提供了更好的单词表示方法,它的应用主要有:
语义表示和语义相似度
Word Embedding可以捕捉到单词之间的语义关系,使得相似含义的单词在向量空间中彼此靠近。这使得我们可以通过计算向量之间的距离或相似度来度量单词的语义相似度。这对于词义消歧、语义搜索、语义推理等任务非常有用。
词语关系和类比推理
Word Embedding可以捕捉到单词之间的关系,如同义词、反义词、上下位关系等。通过在向 量空间中进行向量运算,例如求解向量之间的差异或类比推理,我们可以发现词语之间的有趣关系。例如,对于词语之间的类比关系"king - man + woman = queen",通过Word Embedding可以得到类似的结果。
上下文理解
Word Embedding可以帮助理解单词的上下文信息。通过学习单词在其周围上下文中的嵌入表示,我们可以捕捉到单词的语境信息,从而帮助解决语义歧义、词语消歧和指代消解等问题。
文本分类和情感分析
Word Embedding可以提供丰富的词语特征表示,从而改善文本分类和情感分析任务的性能。通过将文本中的词语映射为嵌入向量,并将这些向量作为输入特征,我们可以在分类器或情感分析模型中进行训练和预测
机器翻译和生成模型
Word Embedding对于机器翻译和生成模型也是至关重要的。通过将源语言和目标语言的单词都映射为嵌入向量,可以提高翻译的准确性和生成模型的质量。嵌入向量可以捕捉到单词之间的语义和句法关系,帮助模型更好地理解和生成自然语言
Word Embedding vs Language Model
Word Embedding
- 静态的、 也是模型
- 词嵌入通常被用来生成词的向量表示,这个过程通常是静态的,即一旦训练完成,每个词的向量 表示就确定了。
- 词嵌入的主要目标是捕获单词或短语的语义和语法信息,并将这些信息以向量形式表示出来。
- 词嵌入的一个重要特性是,语义上相近的词在嵌入空间中的距离也比较近。然而,词嵌入并不能理解上下文信息,即相同的词在不同的上下文中可能有不同的含义,但词嵌入无法区分这些含义
Language Model
- 动态的
- 语言模型则是预测词序列的概率模型,这个过程通常是动态的,会根据输入的上下文进行变化。
- 语言模型的主要目标是理解和生成文本。
- 这包括对上下文的理解,词的预测,句子的生成等等。
- 语言模型会用到词嵌入,但同时也会对上下文进行建模,这样可以处理词在不同上下文中的不同含义
在某种程度上,你可以将词嵌入看作是语言模型的一部分或者输入,语言模型使用词嵌入捕捉的信息,来进行更深层次的语义理解和文本生成。当然,现在有一些更先进的模型,比如BERT,GPT等,它们生成的是上下文相关的词嵌入,即词 的嵌入会根据上下文变化,这样一定程度上弥补了传统词嵌入模型的不足。
核心概念
LLM
- 用到了 嵌入模型
- 使用了深度学习的手段 来做嵌入模型
- 使用了transformer (深度神经网络)
- LLM堆叠了几十层的transformer