一些AI的基础词的含义

83 阅读2分钟

语言相关

NLP(Nature Language Process):自然语言的处理,主要是语言实体的识别,分词和语法分析 NLU(Nature Language Understanding):自然语言理解,包括含义和上下文,情感识别,意图识别,上下文理解 NLG(Nature language Generate):自然语言生成,将数据生成人类语言的文本,产生个性化内容和文本总结

AI相关的结构

mindmap
      机器学习(ML)
          三大学习方法
            监督学习(supervised learning)
            无监督学习算法
            强化学习
          评估
              过拟合
              欠拟合
              适当拟合
          模型结构
              神经网络
                  深度学习
                      RNN
                      CNN
                      Transformer
                          编码 Bert
                          解码 GPT
                              生成式AI(LLM)
          
    

机器学习

为自行从数据中学习和改进

监督学习

主要的流程:

graph TD
输入数据集 --> 监督员打标labels进行模型训练 --> 机器学习算法 --> 模型(测试数据集测试模型) --> 预测

应用方面: 分类(classification)用于识别A和B,即确定的分类;回归(Regression),比如预测房价等

无监督学习

流程

graph TD
原始数据 --> 机器学习(寻找规则)-->模型

应用: 聚类(Clustering)可以颜色分类和形状分类 关联规则(Association Rule)比如使用推荐算法通过购物记录分析进行购物推荐

强化学习(ReinforcementLearning)

chatGPT中第二阶段的训练就是基于人类反馈形成的奖励模型,属于强化学习。 智能驾驶中智能体agent根据环境信息做出行为并基于奖励机制不断调整以形成一个模型。

模型结构

深度学习是基于神经网络的架构方法,分为浅层神经网络和深度神经网络,目前比较流行的Transformer属于后者,是结合了RNN(序列数据和文字方面)和CNN(图片)的优点。

Transformer

2017年Google发布了论文《Attention is all you need》提出了从片段记忆到全局记忆,从串行处理到高效并行

GPT(Generative pre-trained Transformer)生成式与训练Transformer,包括文本生成、对话生成、语音生成、问答

Generative AI 生成式AI

AIGC AI Generated Content AI生成内容

LLM (Large Language Model)大语言模型

相似度分析、翻译、分类、对话、特征提取、改写、摘要、问答、生成

RAG 检索增强生成