1. 什么是分布式、集群
分布式:将一个业务拆分成多个不同的业务;
集群:多个服务器共同完成一个业务,所以就需要用到了负载均衡
注意:从狭义上理解,分布式也可以理解为集群,不要当杠精!
2. 什么是水平、垂直扩展
水平扩展:增加机器处理相同请求
垂直扩展:增加机器处理不同业务请求
比如:一个公司的计算机系统很大,为方便管理按照业务和平台拆分成不同部分,比如订单管理、商家管理、用户管理等多个部分,这可以立即为垂直拆分,比如订单管理QPS很大,单个服务器hold不住,就可以增加服务器,这就是水平扩展;
也可以从数据库层面分析,水平扩展就是增加相同结构的表存储结构,拆分规则可以根据用户ID等等;垂直扩展把一张大表按照业务进行细粒度拆分;
3. 什么是人工智能
人工智能(AI): 可以理解为让机器可以像人一下去思考、感知以及做出决策;而人工智能的实现则主要依赖三部分:算法(AI的心脏,包括机器学习算法、深度学习网络)、数据(AI的基础,需要大量数据去学习以及决策)、算力(AI的前提,需要强大的硬件支持)
应用领域:自动驾驶汽车、智能家居、语音识别、人脸识别、医疗(智能诊断)、金融(股票预测、投资组合)、智能客服等等;
那什么是 机器学习 那?
机器学习(ML):让机器在没有明确的规则或编程的情况下,通过算法多次迭代在海量的数据中去学习,提炼知识,类似于模拟人类去学习某项知识的能力;
那什么是 深度学习 那?
深度学习(DL):利用神经网络 模拟人脑去学习海量数据并进行分层提炼,属于机器学习的一个子集
那什么是 神经网络 那?
神经网络是一种模拟人脑结构和功能的计算模型,用于处理和分析复杂的数据
那超级火 chatGPT 到底是什么?
ChatGPT,是英文 Generative Pre-trained Transformer 的缩写,中文译为生成式 预训练 模型,是由 AI 组织 OpenAI 开发的基于人工智能 的 聊天机器人。它属于自然语言处理( NLP )领域的一部分,使用了一种名为 Transformer 的 深度学习 模型架构。GPT 模型通过大量的文本数据进行预训练,能够理解和生成自然语言,可以给用户提供类似于人类的对话体验。
那什么是自然语言处理( NLP )?
自然语言处理(NLP) 是对使计算机能够处理、分析、解释和推理人类语言的技术和工具的研究和应用
那什么是 Transformer 的 深度学习 模型架构?
Transformer 是一种用于自然语言处理(NLP)任务的深度学习模型架构,它的核心思想是完全基于注意力机制(Attention Mechanism) ,而不是传统的循环 神经网络 ( RNN )或卷积神经网络( CNN )
什么是注意力机制?
假设你在读一本书,但这本书非常长,你不可能一次性记住所有内容。当你遇到一个问题需要回忆书中的某个细节时,你会集中注意力在相关的章节或段落上,而不是从头到尾重新读一遍。 这种选择性地关注重要信息的过程,就是注意力机制的核心思想。
在计算机科学中,注意力机制帮助模型在处理长序列数据时,能够“关注”到序列中最相关的部分,而不是平均地处理所有部分。这使得模型在处理复杂任务时更加高效和准确。
例如,在机器翻译中,注意力机制可以帮助模型在翻译一个句子时,重点关注源语言句子中与当前翻译词最相关的部分,而不是整个句子。这大大提高了翻译的质量和准确性。
什么是循环 神经网络 ( RNN )或卷积神经网络( CNN )?
循环神经网络(Recurrent Neural Network, RNN)是一种用于处理序列数据(文本、语音、视图) 的神经网络架构
卷积神经网络(Convolutional Neural Network, CNN)是一种主要用于处理图像数据(人脸检测、图像视图) 的神经网络架构