人工智能(AI)领域涉及的名词汇总

0 阅读12分钟

ScreenShot_2026-03-12_154701_991.png 现在人工智能(AI)可以说是相当火爆,对于想投身AI领域的同学,有必要对AI相关的名词了解清楚。其领域涉及的概念繁多,为了方便查阅,我将常见且重要的AI名词按照类别进行了整理和解释。这个术语表涵盖了从基础理论到前沿技术的核心词汇,希望能帮助你快速理解。

01 基础概念

人工智能(Artificial Intelligence,AI):指通过计算机程序或机器模拟、延伸和扩展人类智能的理论、方法、技术及应用系统。目标是使机器能像人一样思考、学习、决策。

图灵测试(Turing Test):由艾伦·图灵提出,测试机器是否能表现出与人类无法区分的智能行为。如果一台机器在对话中能让人类无法分辨它是人还是机器,就认为它具有智能。

强人工智能vs弱人工智能:

  • 弱人工智能(Weak AI/Narrow AI):专注于完成特定任务(如人脸识别、语音助手),当前所有AI都属于此类。

  • 强人工智能(Strong AI/AGI):具备与人类同等水平的通用智能,能理解、学习和应用知识解决任何问题,目前尚未实现。

超人工智能(Artificial Superintelligence,ASI):假设中在几乎所有领域都远超最聪明人类的智能体,仍处于理论阶段。

智能体(Agent):能够感知环境并采取行动以实现目标的实体,可以是软件程序(如聊天机器人)或硬件设备(如机器人)。

02 机器学习(Machine Learning,ML)

机器学习:实现AI的主要途径,通过数据训练模型,使计算机能从经验中自动改进。

监督学习(Supervised Learning):使用带标签的数据训练模型,输入与输出一一对应,如分类、回归任务(识别猫狗图片)。

无监督学习(Unsupervised Learning):使用无标签数据,让模型自行发现数据中的模式或结构,如聚类、降维(客户分群)。

半监督学习(Semi-supervised Learning):结合少量标签数据和大量无标签数据训练,降低标注成本。

强化学习(Reinforcement Learning,RL):智能体通过与环境交互,根据奖惩信号学习最优策略,如AlphaGo、自动驾驶。

特征(Feature):用于描述数据的属性或变量,如预测房价时的面积、卧室数量。

标签(Label):监督学习中希望预测的结果,如邮件是否为垃圾邮件(是/否)。

模型(Model):通过算法从数据中学习到的规律或表示,可用于对新数据进行预测。

训练(Training):使用数据调整模型参数,使模型预测误差最小的过程。

过拟合(Overfitting):模型在训练数据上表现极好,但在新数据上表现差,因为学到了噪声或细节。

欠拟合(Underfitting):模型过于简单,无法捕捉数据中的规律,在训练和测试数据上表现都差。

泛化能力(Generalization):模型对新数据的适应能力,是衡量模型好坏的关键。

交叉验证(Cross-validation):将数据分成多份,轮流用作训练集和验证集,以更稳健地评估模型性能。

偏差与方差(Bias and Variance):

  • 偏差:模型预测值与真实值的差距,高偏差导致欠拟合。

  • 方差:模型对训练数据波动的敏感度,高方差导致过拟合。

损失函数(Loss Function):衡量模型预测值与真实值差异的函数,训练目标是最小化损失。

梯度下降(Gradient Descent):通过计算损失函数对参数的梯度,沿梯度反方向更新参数以最小化损失的优化算法。

超参数(Hyperparameter):训练前人为设定的参数,如学习率、神经网络层数,不由模型自动学习。

03 深度学习(Deep Learning,DL)

深度学习的核心是构建多层神经网络,自动提取数据的层次化特征。

神经网络(Neural Network):模拟人脑神经元结构的计算模型,由输入层、隐藏层、输出层组成,每层包含多个神经元。

神经元(Neuron):神经网络的基本单元,接收输入、加权求和、经激活函数输出。

激活函数(Activation Function):引入非线性,使网络能学习复杂模式。常用:ReLU、Sigmoid、Tanh。

层(Layer):

  • 输入层:接收原始数据。

  • 隐藏层:中间计算层,可有多层。

  • 输出层:输出最终结果。

深度神经网络(Deep Neural Network,DNN):具有多个隐藏层的神经网络。

卷积神经网络(Convolutional Neural Network,CNN):专为处理网格状数据(如图像)设计的网络,利用卷积核提取局部特征,常用于计算机视觉。

循环神经网络(Recurrent Neural Network,RNN):处理序列数据(如文本、时间序列)的网络,具有记忆能力,但存在长程依赖问题。

长短期记忆网络(Long Short-Term Memory,LSTM):RNN的一种变体,通过门控机制有效解决长期依赖问题。

门控循环单元(Gated Recurrent Unit,GRU):LSTM的简化版本,参数更少,训练更快。mybj123.com/29850.html

Transformer:基于自注意力机制的架构,彻底改变了自然语言处理领域,是BERT、GPT等模型的基础。

自注意力(Self-Attention):Transformer的核心,允许序列中每个位置关注所有其他位置,捕捉长距离依赖。

多头注意力(Multi-Head Attention):将自注意力并行执行多次,从不同表示子空间学习信息。

前馈网络(Feed-Forward Network,FFN):Transformer中的组成部分,对每个位置的表示进行非线性变换。

位置编码(Positional Encoding):Transformer中为序列添加位置信息的方法,因为模型本身不具备顺序概念。

残差连接(Residual Connection):将输入直接加到输出上,缓解深层网络梯度消失问题,让训练更深网络成为可能。

层归一化(Layer Normalization):对每个样本的特征进行归一化,稳定训练过程。

反向传播(Backpropagation):计算损失函数对每个参数梯度的算法,用于更新网络权重。

优化器(Optimizer):实现梯度下降的具体算法,如SGD、Adam、RMSprop。

批量(Batch):一次训练中同时输入模型的多个样本。

轮次(Epoch):完整遍历一次整个训练数据集。

学习率(Learning Rate):梯度下降中参数更新的步长,过大可能震荡,过小收敛慢。

嵌入(Embedding):将离散对象(如词、商品)映射为连续向量,便于模型处理。

词嵌入(Word Embedding):将单词表示为低维稠密向量,语义相近的词向量距离近,如Word2Vec、GloVe。

04 自然语言处理(Natural Language Processing,NLP)

让计算机理解、生成和处理人类语言的技术。

分词(Tokenization):文本切分成更小的单元(词、子词、字符),如“我爱AI”→[“我”,“爱”,“AI”]。

词性标注(Part-of-Speech Tagging):为每个词标注词性,如名词、动词。

命名实体识别(Named Entity Recognition,NER):识别文本中的专有名词(人名、地名、机构名等)。

句法分析(Parsing):分析句子的语法结构,如依存关系、短语结构。

语义理解(Semantic Understanding):理解文本的含义,包括词义消歧、意图识别等。

情感分析(Sentiment Analysis):判断文本的情感倾向,如正面、负面、中性。

机器翻译(Machine Translation,MT):将一种语言自动翻译成另一种语言,如谷歌翻译。

文本生成(Text Generation):根据输入自动生成连贯的文本,如写诗、新闻稿。

问答系统(Question Answering,QA):自动回答用户提出的问题,可基于文档或知识库。

对话系统(Dialogue System):与用户进行多轮对话,如聊天机器人、任务型助手。

预训练语言模型(Pre-trained Language Model,PLM):在大规模语料上预先训练好的语言模型,下游任务微调即可使用,如BERT、GPT。

BERT(Bidirectional Encoder Representations from Transformers):Google提出的双向Transformer编码器,善于理解上下文,适合分类、阅读理解等任务。

GPT(Generative Pre-trained Transformer):OpenAI提出的自回归语言模型,擅长文本生成,如ChatGPT。

大语言模型(Large Language Model,LLM):参数规模巨大(数十亿至数千亿)的语言模型,如GPT-4、Llama、通义千问。

上下文学习(In-Context Learning):大模型通过提示词中的示例直接学习任务,无需更新参数。

思维链(Chain-of-Thought,CoT):引导模型生成中间推理步骤,提升复杂问题解决能力。

提示工程(Prompt Engineering):设计输入提示词以引导大模型生成期望输出的技术。

微调(Fine-tuning):在预训练模型基础上,用特定任务数据继续训练,使模型适应下游任务。

RLHF(Reinforcement Learning from Human Feedback):基于人类反馈的强化学习,用于使大模型输出更符合人类偏好(如ChatGPT)。

幻觉(Hallucination):大模型生成看似合理但事实上错误或无依据的内容。

05 计算机视觉(Computer Vision,CV)

让计算机理解和处理图像、视频等视觉信息。

图像分类(Image Classification):将图像分为预定义类别,如“猫”、“狗”。

目标检测(Object Detection):识别图像中多个物体的位置和类别,用边界框标出。

图像分割(Image Segmentation):

  • 语义分割:给每个像素分配类别标签。

  • 实例分割:区分同一类别的不同个体。

人脸识别(Face Recognition):识别或验证图像中的人脸身份。

图像生成(Image Generation):根据输入(如文本、噪声)生成新图像,如GAN、扩散模型。

图像超分辨率(Super-Resolution):从低分辨率图像重建高分辨率图像。

图像风格迁移(Style Transfer):将一幅图像的风格应用到另一幅图像上。

卷积核(Kernel/Filter):CNN中用于提取特征的矩阵,在图像上滑动进行卷积操作。

池化(Pooling):降低特征图尺寸的操作,如最大池化、平均池化。

感受野(Receptive Field):网络中某层神经元对应的输入图像区域大小。

06 强化学习(Reinforcement Learning)

智能体(Agent):做出决策的实体。

环境(Environment):智能体交互的外部世界。

状态(State):环境在某个时刻的描述。

动作(Action):智能体可执行的操作。

奖励(Reward):环境对智能体动作的反馈信号(标量),指导学习。

策略(Policy):从状态到动作的映射,可以是确定性的或随机的。

值函数(Value Function):评估某个状态或状态下采取某个动作的长期期望回报。

Q-learning:一种无模型的强化学习算法,学习动作值函数(Q函数)mybj123.com/29925.html。

深度强化学习(Deep Reinforcement Learning):使用深度神经网络近似策略或值函数,如DQN、AlphaGo。

蒙特卡洛树搜索(Monte Carlo Tree Search,MCTS):通过模拟搜索最优决策的算法,AlphaGo中用到。

07 生成模型

生成对抗网络(Generative Adversarial Network,GAN):由生成器和判别器组成,两者博弈,生成器力图生成逼真数据,判别器判断真假。

变分自编码器(Variational Autoencoder,VAE):基于自编码器的生成模型,学习数据的潜在分布,可生成新样本。

扩散模型(Diffusion Model):通过逐步向数据添加噪声(前向过程),然后学习逆向去噪过程来生成数据,如Stable Diffusion、DALL·E 2。

自回归模型(Autoregressive Model):逐个生成序列元素,每一步都依赖之前生成的内容,如GPT、PixelCNN。

08 框架与工具

TensorFlow:Google开发的开源深度学习框架,支持静态计算图。

PyTorch:Facebook开发的开源深度学习框架,动态计算图,研究界广泛使用。

Keras:高级神经网络API,可运行在TensorFlow、Theano等后端上。

JAX:Google开发的数值计算库,支持自动微分和GPU/TPU加速。

Hugging Face Transformers:提供大量预训练模型(BERT、GPT等)的库,简化NLP开发。

LangChain:用于构建基于大语言模型应用的框架,提供链式调用、记忆、工具集成等。

Scikit-learn:Python机器学习库,包含传统ML算法和工具。

Pandas/NumPy:数据处理和数值计算的基础库。

OpenCV:计算机视觉开源库,提供图像处理、视频分析等功能。

CUDA:NVIDIA的并行计算平台,允许利用GPU加速深度学习计算。

09 其他重要术语

图神经网络(Graph Neural Network,GNN):处理图结构数据(如社交网络、分子结构)的神经网络。

迁移学习(Transfer Learning):将一个任务上学到的知识迁移到另一个相关任务,减少训练数据需求。

多模态(Multimodal):涉及多种类型数据(如文本、图像、音频)的AI任务,如文生图、视频理解。

联邦学习(Federated Learning):在保护数据隐私的前提下,分布式训练模型,数据不离开本地。

可解释AI(Explainable AI,XAI):旨在让AI模型的决策过程透明、可理解,增强信任。

对抗样本(Adversarial Example):对输入故意添加微小扰动,导致模型错误分类的样本。

元学习(Meta Learning):学会如何学习,让模型能够快速适应新任务**。**

零样本学习(Zero-shot Learning):模型能识别训练中从未见过的类别,依靠语义描述。

少样本学习(Few-shot Learning):仅用少量样本就能完成新任务的学习。

知识蒸馏(Knowledge Distillation):将大模型(教师)的知识转移到小模型(学生),压缩模型体积。

模型量化(Quantization):降低模型参数精度(如从32位浮点转为8位整数),减少内存和加速推理。

剪枝(Pruning):移除神经网络中不重要的连接或神经元,压缩模型。

这个列表涵盖了AI领域的主要名词,但AI技术日新月异,新术语将会不断涌现。我们也需要与时俱进,不断学习。