语言相关
NLP(Nature Language Process):自然语言的处理,主要是语言实体的识别,分词和语法分析 NLU(Nature Language Understanding):自然语言理解,包括含义和上下文,情感识别,意图识别,上下文理解 NLG(Nature language Generate):自然语言生成,将数据生成人类语言的文本,产生个性化内容和文本总结
AI相关的结构
mindmap
机器学习(ML)
三大学习方法
监督学习(supervised learning)
无监督学习算法
强化学习
评估
过拟合
欠拟合
适当拟合
模型结构
神经网络
深度学习
RNN
CNN
Transformer
编码 Bert
解码 GPT
生成式AI(LLM)
机器学习
为自行从数据中学习和改进
监督学习
主要的流程:
graph TD
输入数据集 --> 监督员打标labels进行模型训练 --> 机器学习算法 --> 模型(测试数据集测试模型) --> 预测
应用方面: 分类(classification)用于识别A和B,即确定的分类;回归(Regression),比如预测房价等
无监督学习
流程
graph TD
原始数据 --> 机器学习(寻找规则)-->模型
应用: 聚类(Clustering)可以颜色分类和形状分类 关联规则(Association Rule)比如使用推荐算法通过购物记录分析进行购物推荐
强化学习(ReinforcementLearning)
chatGPT中第二阶段的训练就是基于人类反馈形成的奖励模型,属于强化学习。 智能驾驶中智能体agent根据环境信息做出行为并基于奖励机制不断调整以形成一个模型。
模型结构
深度学习是基于神经网络的架构方法,分为浅层神经网络和深度神经网络,目前比较流行的Transformer属于后者,是结合了RNN(序列数据和文字方面)和CNN(图片)的优点。
Transformer
2017年Google发布了论文《Attention is all you need》提出了从片段记忆到全局记忆,从串行处理到高效并行
GPT(Generative pre-trained Transformer)生成式与训练Transformer,包括文本生成、对话生成、语音生成、问答
Generative AI 生成式AI
AIGC AI Generated Content AI生成内容
LLM (Large Language Model)大语言模型
相似度分析、翻译、分类、对话、特征提取、改写、摘要、问答、生成