【AI】人工智能基础概念

8 阅读4分钟

以下是人工智能领域的完整层次展开:


一、人工智能(AI)

分类说明
符号主义AI基于逻辑推理和知识表示,如专家系统、知识图谱
连接主义AI基于神经网络和机器学习,模拟大脑神经元连接
行为主义AI基于感知-动作,强调与环境交互,如强化学习、机器人
混合AI结合多种方法,如神经符号AI

二、连接主义AI → 机器学习(Machine Learning)

分类说明典型算法
监督学习有标签数据训练线性回归、SVM、决策树、随机森林、神经网络
无监督学习无标签数据,发现隐藏结构K-means、PCA、聚类、自编码器
半监督学习少量标签+大量无标签数据自训练、协同训练
强化学习通过与环境交互学习最优策略Q-learning、DQN、PPO、A3C
迁移学习将已学知识迁移到新任务领域自适应、预训练-微调

三、机器学习 → 神经网络(Neural Network)

分类结构特点典型网络
前馈神经网络信息单向传播,无循环感知机、多层感知机(MLP)
卷积神经网络(CNN)局部连接、权值共享,适合图像LeNet、AlexNet、VGG、ResNet
循环神经网络(RNN)具有记忆能力,适合序列RNN、LSTM、GRU、Bi-LSTM
图神经网络(GNN)处理图结构数据GCN、GAT、GraphSAGE
生成对抗网络(GAN)生成器与判别器对抗训练DCGAN、StyleGAN、CycleGAN
自编码器(AE)编码-解码结构,学习数据表示普通AE、变分自编码器(VAE)
Transformer基于自注意力机制,并行处理BERT、GPT、T5、ViT

四、神经网络 → 深度学习(Deep Learning)

分类层数特点典型架构
浅层神经网络1-2个隐藏层传统感知机、简单MLP
深度神经网络(DNN)≥3个隐藏层深层MLP
深度卷积网络深层CNN结构ResNet(152+层)、DenseNet
深度循环网络深层RNN/LSTM结构深层LSTM、Stacked RNN
深度生成模型深层生成结构VAE、GAN、扩散模型(Diffusion)
预训练模型大规模预训练+微调BERT、GPT系列、T5、RoBERTa

五、深度学习 → 大模型(Large Model / Foundation Model)

分类规模特点典型代表
大语言模型(LLM)数十亿至数千亿参数,处理自然语言GPT-3(175B)、GPT-4、PaLM、LLaMA、ChatGLM、文心一言
视觉大模型大规模视觉预训练ViT-G/14、SAM、CLIP、DALL-E、Stable Diffusion
多模态大模型融合文本、图像、音频、视频GPT-4V、Gemini、Flamingo、BLIP-2
科学计算大模型面向特定科学领域AlphaFold(蛋白质结构)、GraphCast(天气预报)
代码大模型代码生成与理解GitHub Copilot、CodeT5、CodeLlama、StarCoder

六、大模型 → 具体应用形态

应用形态功能特点代表产品
聊天机器人对话交互、问答ChatGPT、Claude、文心一言、通义千问
AI Agent自主规划、工具调用、任务执行AutoGPT、GPT-4 with Tools、智谱AutoGLM
代码助手代码补全、生成、解释GitHub Copilot、Cursor、Codeium
AI搜索结合大模型的智能搜索Perplexity、秘塔AI搜索
AI绘画/视频文生图、文生视频Midjourney、DALL-E 3、Sora、可灵
嵌入式AI(端侧大模型)轻量化、本地化部署Llama.cpp、Phi-3、Qwen-1.8B

完整层次结构图

人工智能(AI)
├── 符号主义AI
│   └── 专家系统、知识图谱、逻辑推理
├── 连接主义AI
│   └── 机器学习(ML)
│       ├── 传统机器学习
│       │   ├── 监督学习:SVM、决策树、随机森林、KNN
│       │   ├── 无监督学习:K-means、PCA、聚类
│       │   ├── 强化学习:Q-learning、DQN、PPO
│       │   └── 集成学习:AdaBoost、XGBoost、LightGBM
│       └── 神经网络(NN)
│           ├── 前馈网络:感知机、MLP
│           ├── 卷积网络(CNN):LeNet→AlexNet→VGG→ResNet→EfficientNet
│           ├── 循环网络(RNN):RNN→LSTM→GRU→Bi-LSTM
│           ├── 图网络(GNN):GCN、GAT、GraphSAGE
│           ├── 生成网络:GAN、VAE、扩散模型
│           ├── 注意力机制:Transformer
│           └── 深度学习(DL)
│               ├── 浅层网络(1-2层)
│               ├── 深层网络(3+层)
│               ├── 深度CNN、深度RNN
│               ├── 预训练模型(PTM):ELMo→BERT→GPT
│               └── 大模型(Foundation Model)
│                   ├── 大语言模型(LLM):GPT系列、LLaMA、ChatGLM
│                   ├── 视觉大模型:ViT、SAM、CLIP、DALL-E
│                   ├── 多模态大模型:GPT-4V、Gemini
│                   ├── 科学大模型:AlphaFold、GraphCast
│                   ├── 代码大模型:Copilot、CodeLlama
│                   └── 应用形态
│                       ├── 聊天机器人(ChatBot)
│                       ├── AI Agent(智能体)
│                       ├── 代码助手
│                       ├── AI搜索
│                       ├── AIGC(文生图/视频)
│                       └── 端侧大模型
└── 行为主义AI
    └── 机器人、自主系统、进化算法

关键演进路线

阶段时间标志性技术核心突破
符号主义1950s-1980s专家系统知识表示与推理
机器学习兴起1990s-2000sSVM、随机森林统计学习理论
深度学习复兴2012-2017AlexNet、ResNet、Transformer大数据+GPU+深层网络
预训练时代2018-2022BERT、GPT-3无监督预训练+微调
大模型时代2022至今ChatGPT、GPT-4、多模态模型涌现能力、指令遵循、RLHF