【AI转行01】小白也能懂:机器学习、深度学习与有监督学习

47 阅读5分钟

【AI转行01】小白也能懂:机器学习、深度学习与有监督学习(通俗图解)

写在前面: 大家好,我是正在从传统开发转行 AI 大模型工程师的阿强。 面对铺天盖地的 AI 概念,我决定用最通俗的语言,把我的学习笔记整理成一个系列分享给大家。 这是一个“能听懂人话”的 AI 基础专栏。欢迎大家一起交流!


给初学者的定心丸: 别被这些高大上的名词吓到。其实 AI 的底层逻辑,跟你教家里的小朋友认字、认动物是一模一样的。

  • 传统编程 = 你写好规则:“看见红灯就停”。
  • 机器学习 = 你带他过马路 100 次,他自己总结出:“哦,原来红灯亮的时候大家都停了”。

1. 一张图看懂它们的关系

想象这只是一个俄罗斯套娃

ai_relationship.png

  • 最外层是 人工智能 (AI):这是大梦想——想让机器像人一样聪明。
  • 中间层是 机器学习 (ML):这是实现梦想的手段——不直接告诉机器答案,而是给它数据,让它自己学。
  • 最核心层是 深度学习 (DL):这是机器学习里最厉害的一派——模仿人脑神经元结构来学习。ChatGPT 等大模型就在这一层。

2. 核心概念:有监督学习 (Supervised Learning)

这是目前 AI 最主流的学习方式,也是大模型的基础。

2.1 它是怎么回事?

一句话解释这就是“刷题战术”。

想象你要教一个从未见过猫的小朋友(AI 模型)识别“猫”。

  1. 准备教材(训练数据):你找来 100 张照片,有的照片里是猫,有的不是。
  2. 贴标签(Labeling)
    • 照片A -> 告诉他:这是“猫”。
    • 照片B -> 告诉他:这不是“猫”,是“狗”。
  3. 学习过程(训练)
    • 小朋友一开始瞎猜。
    • 猜错了(比如指着狗说是猫),你就纠正他(这叫反馈误差)。
    • 慢慢地,他脑子里就自己总结出了规律:有尖耳朵、胡须、瞳孔竖着的,大概率是猫。
  4. 考试(推理/预测)
    • 你拿出一张他没见过的照片(新数据)。
    • 他自信地说:“这是猫!”(预测成功)。

这就是 有监督学习有标准答案的学习

2.2 大模型是怎么学的?

ChatGPT 那么牛,其实它也是在做“有监督学习”,只不过它的题目是**“猜字谜”**。

  • 题目床前明月
  • 正确答案
  • 训练
    • 模型如果猜 ,那是错的,打手板(调整参数)。
    • 模型如果猜 ,那是对的,给糖吃(强化记忆)。

它读了互联网上所有的书,做了几万亿道这种填空题,最后就学会了说话。


3. 为什么要分“传统机器学习”和“深度学习”?

既然都是学习,区别在哪?

3.1 传统机器学习(浅层)

像个只会死记硬背的学生。

  • 你需要明确告诉它关注什么。比如识别房价,你得告诉它:关注“面积”、“地段”、“朝向”。
  • 如果你漏掉了“学区”这个关键因素,它就学不准了。
  • 缺点:太依赖人去提取特征(Feature Engineering)。

3.2 深度学习(深层)

像个有悟性的天才。

  • 你直接把房子的照片扔给它,不需要告诉它关注什么。
  • 它自己通过多层神经元网络(就像千层饼一样),第一层看线条,第二层看形状,第三层看装修风格... 自己悟出了哪些因素影响房价。
  • 优点:数据越多,它越聪明。它能处理图片、声音、文字这些复杂的“非结构化数据”。

4. 转行避坑指南

作为未来的大模型工程师,这一章你只需要记住三个词:

  1. 数据 (Data)

    • 巧妇难为无米之炊。没有数据,AI 就是个空壳。
    • 大模型启示:现在的竞争核心不是模型架构(大家长得都差不多),而是谁有更优质的高质量数据
  2. 模型 (Model)

    • 就是一个巨大的数学公式。
    • 训练过程,就是在这个公式里填数字(参数),让算出来的结果尽可能接近真实答案。
  3. 算力 (Compute)

    • 就是显卡(GPU)。
    • 因为要算的数太多了(几千亿个参数),CPU 算不过来,必须用 GPU 并行计算。

5. 🧠 脑洞时间:课后思考与练习

既然是“刷题”,那咱们也来两道题练练手。

练习题 1:这是什么学习?

请判断以下场景属于 有监督学习 吗?

  1. 场景 A:你把家里所有的袜子扔给 AI,没告诉它怎么分,结果它自己把颜色一样的袜子堆在了一起。(提示:有没有标准答案?)
  2. 场景 B:你给 AI 看了一万封邮件,每一封都标记了“是垃圾邮件”或“不是垃圾邮件”。现在让它自动拦截新邮件。(提示:有没有标准答案?)

练习题 2:大模型的“幻觉”

ChatGPT 有时候会一本正经地胡说八道(比如问它“林黛玉倒拔垂杨柳”的故事)。 结合本章学的“Next Token Prediction(猜字谜)”原理,你想想为什么会这样?

  • 提示:它是在查数据库里的事实吗?还是在根据概率“猜”下一个字?

👉 下一章预告:多元线性回归 这名字听着吓人?别怕! 其实就是初中学的 y = ax + b。 只不过现在变成了 房价 = 面积 × 单价 + 装修费。 下一章我们用最简单的数学,通过“买房子”的例子,搞懂 AI 是怎么做预测的。