GPT Completion, Embedding, Fine Tuning

524 阅读2分钟

GPT Completion, Embedding, Fine Tuning

GPT (Generative Pre-trained Transformer) 是一种基于 Transformer 架构的语言模型, 可以帮助计算机理解人类写的文本, 具有预测文本中下一个词的能力.

Choosing-the-Right-LLM-Prompting-Strategy.png

Completion

GPT 的 "completion" 指的是, 当你输入一段文本时, GPT 会尝试猜测下一个词或一段话, 就像你猜测下一个字母或单词一样.

例如: 当输入 "今天天气很" 时, GPT 会输出一个或多个预测的词或短语, 比如 "好", "糟糕", "晴朗", "阴沉" 等等.

Embedding

GPT 的 "embedding" 指的是将文本转换成向量表示的过程. GPT 的输入是由单词组成的文本, 而模型的计算需要将这些文本转换成向量形式, 以便进行下一步的计算.

GPT 使用的嵌入方法是将每个单词或子词映射到一个高维空间中的向量表示, 这个向量的维度通常是几百维或者更高, 不同单词或子词之间的距离和角度可以表示它们之间的语义关系. 这样, 模型就可以通过向量的运算来计算文本的相似度, 分类或生成新的文本.

简单的说, GPT 会把文本转换成一系列数字, 这些数字表示文本的意思, 就像你看到一个图案时, 会把它转换成你理解的概念一样.

Fine Tuning

GPT 的 "fine tuning" 可以理解为是一个计算机程序学习的过程, 就像小孩学习做某件事情一样.

举个例子, 当你学习骑自行车时, 一开始你可能会需要带上辅助轮来保持平衡. 随着时间的推移, 你可以逐渐将辅助轮拆下来, 然后更多地依靠自己的平衡感. 最终, 你能够独立地骑自行车而不需要任何帮助.

类似地, 当计算机程序第一次学习时, 它可能需要更多的帮助和指导来识别和理解文本中的语言规则和意义. 这个过程称为 "预训练".

但是, 预训练的模型可能不完全适合处理特定的任务, 例如: 文本分类或生成. 因此, 需要对预训练模型进行 "fine tuning", 以便将其调整为更好地处理特定任务的状态.

在 "fine tuning" 过程中, 计算机程序将接受更具体的数据和指令, 并尝试根据这些数据和指令调整它已经学到的知识. 通过反复练习, 程序可以变得越来越擅长执行特定的任务, 就像你骑自行车的时候, 越来越擅长保持平衡和控制速度一样.

总之, "fine tuning" 是一个用于进一步调整已经预训练的模型以适应特定任务的过程, 就像小孩通过练习来提高自己的技能一样.