AI基础知识核心笔记(重点+易混淆点)
核心:提炼核心知识点、易混淆点,简洁不冗余,贴合SRE背景和AI实践,可直接保存、快速查阅记忆。
一、核心知识点(必记,衔接实践)
-
AI整体定位:核心是“机器类人感知、思考、决策”,大模型、Agent都是AI的落地形态,服务于场景化需求(如SRE运维)。
-
核心分类(3层核心,舍弃冗余):
-
传统AI(基础):ML(机器学习)→ DL(深度学习),是大模型底层;conda安装的pytorch、transformers是核心支撑库。
-
生成式AI(主流):核心“生成新内容”,代表:Deepseek、GLM(开源,本地实践重点)、Anthropic Claude、扣子(闭源,辅助测试)。
-
Agent(进阶):自主拆解任务、调用工具,代表:Hello-Agents、Clawbot,贴合SRE运维场景。
-
底层核心技术(4个重点):
-
Transformer架构:大模型核心,替代CNN/RNN,并行计算强,Deepseek、GLM均基于此。
-
模型量化:INT4/INT8,降低内存占用,适配本地Ubuntu(无GPU也能运行)。
-
NLP:文本处理核心,模型交互、文档问答均依赖,sentencepiece库是关键工具。
-
工具链:conda(环境)、Docker(部署)、Ollama(模型部署)、Prometheus(监控),衔接SRE技能。
-
实践核心逻辑:框架补全 → 本地部署(Deepseek)→ 工具联动(LangChain/Agent)→ 优化运维(SRE技能)→ 项目闭环。
-
工具优先级:开源大模型(Deepseek、GLM)> 工具链(conda、Docker)> Agent(Hello-Agents)> 闭源模型(辅助)。
二、易混淆点(重点区分,避免踩坑)
-
ML vs DL:ML是AI分支(机器从数据学规律),DL是ML的子集(基于神经网络),大模型属于DL范畴(研究生期间的模型训练是DL应用)。
-
开源大模型 vs 闭源大模型:
-
开源(Deepseek、GLM):可本地部署、自定义微调,适配Ubuntu+conda,是实践核心。
-
闭源(Anthropic Claude、扣子):仅API调用,无法本地部署,适合快速测试。
-
Agent vs 普通大模型:
-
普通大模型:需人工输入明确指令(被动执行)。
-
Agent:自主拆解复杂任务(主动规划、调用工具),如自动排查系统故障。
-
模型训练 vs 模型量化:
-
训练:让模型学数据规律(研究生超算工作)。
-
量化:降低参数精度,适配本地低配置电脑(实践重点操作)。
-
工具链定位:conda(环境管理,已配置)、Docker(容器化部署)、Ollama(快速部署模型),三者协同支撑本地实践,均需熟练使用。
三、SRE关联重点(贴合自身优势,快速记忆)
-
SRE技能适配AI场景:容器化部署(Docker)、环境监控(Prometheus)、故障排查,可落地AI模型运维、AIOps。
-
实践关联:Docker部署大模型、Prometheus监控模型状态、用SRE思路排查模型部署/运行故障(如容器崩溃、环境异常)。
(注:文档部分内容可能由 AI 生成)