AI相关50个核心名词

36 阅读15分钟

1、函数(Funciton): 函数是数学和编程中常用的一个概念。简单来说,函数就是一种规则,它把输入(也叫参数)转化成输出。你可以把它看作一个“机器”,你把东西(输入)放进去,机器就根据它的规则(函数)处理,最后给你一个结果(输出)。

2、符号主义(Symbolism) :符号主义强调使用符号和规则来表示和推理知识,而不是通过数据中的模式自动学习。具体来说,符号主义认为智能的核心是能够通过符号化的方式表示世界,并利用这些符号进行推理和决策。

3、联结主义(Connectionism) :联结主义是一种基于神经网络模型的人工智能和机器学习方法。联结主义强调通过模拟大脑神经元之间的连接方式,来处理信息和学习知识。它关注的是神经网络的构建和训练,尤其是通过大量简单的计算单元(神经元)之间的连接来解决复杂的任务。

4、模型(Model) :模型是指通过算法从数据中学习到的数学或计算机程序,它能够根据输入的数据生成输出或预测结果。简单来说,机器学习模型是一个通过学习数据规律,并可以对新数据做出预测或分类的系统。

5、权重(Weight) :权重是指在模型中用于控制输入特征对最终输出的影响程度的参数。简单来说,权重决定了模型中的每个输入特征在预测结果中所占的“重要性”或“贡献”。

6、 大模型 Large Model :大模型通常指的是具有大量参数、复杂结构和庞大计算需求的机器学习模型,尤其是深度学习模型。大模型通常能够处理大量的数据,学习更加复杂的模式,并在一些任务上表现出色,尤其是在需要大量数据和高计算能力的任务中。

7、大语言模型(Large Language Model) :大语言模型(简称LLM)指的是一种通过处理大量文本数据,基于深度学习算法(尤其是Transformer架构)构建的自然语言处理(NLP)模型。这些模型通过学习语言的结构、语法、语义和上下文关系,能够理解和生成自然语言文本。

8、训练(Training) :训练是指通过使用数据来调整模型的参数,使其能够学习并从中提取模式和规律,从而能够对新数据做出准确的预测或分类。

9、预训练(Pre-training) :预训练是指在一个大型数据集上进行初步训练,以学习一般的模式或特征,之后再进行微调(fine-tuning),以适应特定任务的过程。预训练的目的是使模型在开始解决特定任务之前,已经具备一定的基础知识和能力,从而能够在特定任务上进行快速学习和优化。

10、微调(Fine-tuning) :微调是指在预训练模型的基础上,针对特定任务或数据集进一步训练的过程。微调的目标是通过少量的数据和计算资源,对模型进行小幅度的调整,使其更好地适应目标任务,从而提升其性能。

11、推理(Inference) :推理是指使用已经训练好的模型对新数据进行预测或决策的过程。推理是机器学习模型应用到实际场景中的关键步骤,它使用模型在训练过程中学到的知识来处理新的、未见过的数据。

12、开放权重模型(Open-weight model) :开放权重模型指的是那些可以公开访问和使用其训练好的模型权重(weights)的机器学习模型。这里的“权重”指的是模型中神经网络层之间连接的参数,这些参数是在训练过程中通过优化算法调整的,用于帮助模型做出预测或分类。

13、完全开源模型(Fully Open-Source Model) :完全开源模型指的是那些完全开放源代码、公开训练过程以及模型权重的机器学习模型。换句话说,这些模型不仅允许开发者和研究人员使用模型的训练权重(即模型参数),还允许访问和修改模型的源代码、训练数据、配置以及训练过程等。这使得任何人都能够查看、使用、修改、分发这些模型。

14、 生成式AI Generative AI :生成式AI是指能够生成新数据(如文本、图像、音频等)的人工智能系统。与传统的判别式AI(Discriminative AI)不同,生成式AI不仅仅是对数据进行分类或预测,而是通过学习数据的分布,生成与原始数据相似但全新的内容。

15、Token: Token指的是在处理文本时,将文本分割成更小的单元,通常是单词、子词或字符,这些单元被称为“Token”。Token 是文本的基本处理单元,它在文本分析、语言建模、情感分析、机器翻译等任务中起着关键作用。

16、上下文(Context) :上下文指的是影响某个词语、句子或段落含义的周围信息。理解上下文对于正确处理和生成语言至关重要,因为语言的意义往往不仅仅依赖于单独的词或符号,而是依赖于其在整体语境中的位置和使用方式。

17、提示词(Prompt) :提示词指的是给定给语言模型(如GPT系列、BERT等)的一段输入文本,用于引导模型生成特定的输出或完成特定任务。提示词通常作为模型的输入,目的是提供上下文或方向,以便模型生成准确的响应。

18、随机性(Randomness) :随机性指的是模型训练和推理过程中存在的随机因素或不确定性。这些随机因素可以来自数据、算法、初始化等多个方面,可能导致模型的输出、训练结果或学习过程不完全相同,即使在相同的条件下。

19、温度(Temperature) :温度通常是指在生成式任务中,特别是在文本生成和概率分布采样过程中,用来控制生成结果的随机性或创造性的一个参数。温度在生成模型中的作用是调整模型生成内容的多样性和确定性,尤其是在使用基于概率的采样方法时。

20、Top-k:Top-k 是一种用于生成模型输出的技术,通常应用于采样(sampling)和解码(decoding)过程中。它的目的是通过限制模型选择输出的候选项数量,来控制生成内容的多样性、准确性和可控性。具体来说,Top-k 指的是从模型生成的概率分布中选择概率最大的 前k个候选项,而不是选择概率最大的单一项。

21、幻觉(Hallucination) :幻觉指的是生成式模型(如大型语言模型、生成对抗网络等)生成的内容或输出中,与现实不符或完全错误的部分。这些内容通常是模型在训练过程中学习到的规律和模式的产物,但并不与真实世界的数据或事实相符。

22、联网(Networking) :联网通常指的是在模型或算法中引入网络架构或通信机制,以便多个组件之间可以交换信息、共享资源或相互协作。在不同的上下文中,联网的含义会有所不同。

23、检索增强生成(Retrieval-Augmented Generation) :检索增强生成(简称 RAG)是一种结合了检索和生成的混合模型。该方法的目标是通过引入外部信息源(如文档库或知识库)来增强生成模型的能力,从而提高生成结果的准确性和多样性。简单来说,RAG模型通过“检索”与“生成”结合的方式,提升了模型在处理复杂查询时的表现,尤其是在需要从大量信息中查找背景知识的任务中。

24、知识库(Knowledge Base) :知识库(简称KB)是一个包含结构化和/或非结构化信息的系统或数据库,旨在存储、管理和提供知识,用于支持推理、查询和决策过程。知识库通常包含关于世界各个领域的信息,并通过各种形式组织和表达(如文本、图表、数据表、关系网络等)。

25、向量数据库(Vector Database) :向量数据库是一种专门用于存储和检索高维向量数据的数据库。向量数据库的核心目标是处理大规模的向量数据(如文本嵌入、图像特征、音频特征等),并支持高效的相似性搜索或近似最近邻(Approximate Nearest Neighbor, ANN)搜索。

26、词嵌入(Word Embedding) :词嵌入是将词语(或子词、句子)转换为向量表示(即数值向量)的技术。词嵌入将词语的语义信息通过高维的实数向量表达,使得词语在向量空间中能够捕捉到其语义上的关系和相似性。词嵌入的目标是将每个词表示为一个低维的向量,而这个向量能够保留词语之间的语义信息和上下文关系。

27、向量检索(Vector Search) :向量检索是指基于向量表示的数据检索方法,通常用于从一个大的数据集(如文本、图像或其他类型的特征数据)中快速找到与查询向量最相似的项。向量检索的核心思想是将数据和查询都表示为向量,然后通过计算它们之间的相似度来进行检索。

28、AIGC(Artificial Intelligence Generated Content) :AIGC是人工智能生成内容(Artificial Intelligence Generated Content)的缩写。它指的是通过人工智能(AI)技术自动生成各种类型的内容,包括文本、图像、音频、视频等。AIGC的目标是利用AI算法和模型生成符合特定要求的创意内容,常见的应用包括自动写作、图像生成、音乐创作、视频制作等。

29、AGI(Artificial General Intelligence) :AGI(Artificial General Intelligence,通用人工智能)是指一种能够像人类一样理解、学习、推理、解决问题和适应不同环境的人工智能。与当前的狭义人工智能(Narrow AI)不同,AGI不仅限于执行特定任务,而是具备跨领域、通用的智能能力,可以处理各种类型的任务,表现出类似人类的广泛认知能力。

30、多模态(Multimodal) :多模态指的是处理和分析多种不同类型的数据或信息源的能力,通常是指同时利用多个模态(如文本、图像、语音、视频、传感器数据等)来理解和生成内容。多模态学习的目标是结合不同模态的数据,利用它们之间的关系和互补性,从而增强机器学习系统的理解和表现。

31、工作流(Workflow) :工作流是指一系列按照特定顺序进行的任务或步骤,通过自动化或半自动化的方式执行,以实现某个目标。工作流通常涉及多个阶段的操作,每个阶段完成特定任务,最终合成结果,优化工作效率和任务的执行质量。例如:Coze:能在页面上进行傻瓜式编排工作流的工具,LangChain:用代码的方式编排工作流的框架。

32、智能体(Agent) :按照工作流封装大模型,用于自动完成某一类复杂任务的程序(例如AutoGPT,Manus)。

33、多智能体(Multi-Agent) :多个智能体协作,完成一个更复杂的任务。

34、MCP(Model Context Protocol) :AI系统标准化接口。

35、A2A(Agent to Agent Protocol) :Agent 和 Agent之间的通信协议。

36、模型压缩(Model Compression) :模型压缩是指通过某些技术手段减小机器学习模型的大小和复杂度,同时尽量保持其原有性能。模型压缩的主要目标是使模型更加高效,便于在资源受限的环境中(如嵌入式设备、移动设备、边缘计算等)部署和应用。

37、量化(Quantization) :量化是一种将模型中浮点数表示的参数(通常是32位或64位浮点数)转换为低精度表示(如8位整数或更低精度)的技术。量化主要用于减少模型的存储需求、提高计算效率,并加速推理过程,尤其在资源受限的设备(如移动设备、嵌入式设备、边缘设备等)上非常重要。

38、蒸馏(Distillation) :蒸馏通常指的是一种模型压缩技术,称为知识蒸馏(Knowledge Distillation)。这种方法的核心思想是将一个大型、复杂的“教师模型”(Teacher Model)中学到的知识转移到一个小型的“学生模型”(Student Model)中,从而使学生模型能够在尽量保持高精度的同时,具备较小的模型大小和更快的推理速度。

39、剪枝(Pruning) :剪枝是指通过去除模型中不重要的部分(如权重、神经元、层等)来简化模型的复杂度,以减少计算开销、存储需求,并提高模型的推理速度。剪枝常用于深度神经网络(DNN)、决策树、树形模型等机器学习模型中,通常会在不显著降低模型性能的前提下进行。

40、LoRA(Low-Rank Adaptation) :是一种用于训练和调整预训练模型的技术。LoRA的核心思想是通过引入低秩矩阵的适应性更新来减少训练过程中的参数数量和计算成本,从而提高模型的效率,特别是在处理大规模预训练语言模型时(如BERT、GPT等)。

41、思维链(Chain of Thought) :思维链是一种推理过程的表达方式,通常用于深度学习模型中,尤其是在处理复杂推理任务时。思维链技术通过让模型显式地展示推理的每个步骤或中间结果,帮助模型更清楚地理解和解决问题,尤其是在面对需要逻辑推理、推导或逐步分析的任务时。

42、人类反馈的强化学习(Reinforcement Learning with Human Feedback) :RLHF是一种结合了强化学习(RL)和人类反馈的技术方法,用于训练人工智能模型,特别是在复杂任务或需要大量领域知识的任务中。通过这种方法,AI模型不仅依赖于环境的奖励信号,还能通过人类的指导或反馈来加速学习过程,提高模型的表现。

43、自然语言处理(Natural Language Processing) :它是人工智能(AI)和计算机科学的一个重要分支,旨在使计算机能够理解、解释、生成和与人类自然语言进行交互。

44、CUDA(Compute Unified Device Architecture) :由 NVIDIA(英伟达)公司开发的并行计算平台和编程模型。CUDA允许开发人员利用NVIDIA的图形处理单元(GPU)进行通用计算,不仅限于图形渲染,使得GPU能够执行计算密集型的任务,极大地加速了科学计算、深度学习、机器学习等领域的应用。

45、TPU(Tensor Processing Unit) :是一种由 Google 专门为加速机器学习任务而设计的专用硬件加速器。TPU是Google推出的定制芯片,主要用于加速深度学习和大规模机器学习模型的训练和推理。

46、NPU(Neural Processing Unit) :意为神经网络处理单元。NPU是一种专门为加速深度学习任务而设计的硬件加速器。它是专门优化用于神经网络计算的硬件,与CPU(中央处理单元)和GPU(图形处理单元)相比,NPU能够提供更高效的计算能力,特别是在处理人工智能(AI)和机器学习(ML)任务时。

47、PyTorch: PyTorch 是一个开源的深度学习框架,广泛用于构建和训练神经网络模型,尤其是在研究和生产环境中。PyTorch由Facebook的人工智能研究团队(FAIR)开发,并于2016年首次发布,现已成为深度学习领域中最受欢迎和广泛使用的框架之一。

48、TensorFlow: TensorFlow 是一个开源的深度学习框架,由 Google 开发和维护,旨在帮助开发者构建、训练和部署机器学习模型。TensorFlow最初是由Google的人工智能团队(Google Brain)开发的,广泛应用于深度学习、计算机视觉、自然语言处理、强化学习等领域。它是一个用于大规模机器学习和深度学习的强大工具,支持从研究到生产环境的整个生命周期。

49、Hugging Face:AI开源平台及社区。

50、Ollama: 本地运行大模型工具。