AI-S1-05-神经网络与神经元

55 阅读5分钟

前面几天,我们已经把AI学习的“外部框架”都摸清楚了:从数据准备,到模型训练,再到结果评估。今天,我们就钻到“发动机”内部,看看近年来驱动AI革命的核心部件到底长什么样。

学习计划第五天:神经网络 (Neural Network) 与 神经元 (Neuron)

今日概念:神经网络 (Neural Network) 和 神经元 (Neuron)。

一句话总结神经元是AI大脑里最基本的信息处理“细胞”,而神经网络就是由无数个这样的“细胞”连接而成的、模仿人脑结构的复杂网络。

通俗比喻:一个大型公司的决策流程

1. 神经元 (Neuron) - 一个基层员工

  • 这个员工(神经元)会收到来自不同同事的多份报告(输入)。

  • 他觉得不同同事的报告,其**重要性(权重)**是不同的。比如,直属上级的报告权重就很高,隔壁部门的可能就低一些。

  • 他会把所有报告的信息根据其重要性进行加权汇总,在脑子里形成一个总体印象。

  • 最后,他会根据这个总体印象做出一个判断:“这件事重不重要?”如果他觉得足够重要(超过了一个激活阈值),他就会把这个结论汇报给他的上级(输出);如果觉得不重要,他就“保持沉默”,信息到此为止。

2. 神经网络 (Neural Network) - 整家公司

  • **输入层 (**Input Layer):公司的前台或客服部。他们负责接收所有最原始的外部信息(比如客户的电话、邮件)。

  • 隐藏层 (Hidden Layers):公司的核心部门,比如市场部、数据分析部、产品部等。这一层一层的部门就是神经网络的“隐藏层”。前台把信息传递给市场部(第一隐藏层),市场部处理后,把结论交给数据分析部(第二隐藏层),以此类推。每个部门里都有大量的员工(神经元)在协同工作。网络越“深”(Deep),就代表中间的部门层级越多,能进行更复杂、更精细的分析。

  • 输出层 (Output Layer):公司的CEO或决策委员会。他们接收来自最后一个部门(最后一个隐藏层)的最终报告,并做出最终的决策(比如“开发新产品”、“涨价”或“不涨价”)。

深度学习 (Deep Learning) 的“深”就体现在这里:它使用的神经网络有很多很多“隐藏层”(部门层级非常多),所以能处理极其复杂的信息。

“20分钟”细嚼慢咽

  • 人工神经元 (Artificial Neuron) 的工作流程它在数学上其实很简单:

    • 接收输入:接收多个数值 x1, x2, x3...

    • 加权求和:每个输入都乘以一个对应的权重 w1, w2, w3...(权重代表了重要性),然后把它们全部加起来。Sum = (x1*w1) + (x2*w2) + (x3*w3) + ...

    • 激活函数 (Activation Function):将上面得到的和 Sum 丢进一个叫做“激活函数”的东西里。这个函数的作用就是那个“判断是否重要的开关”。最简单的激活函数就是:如果 Sum 大于某个值,就输出 1(激活/汇报),否则输出 0(不激活/沉默)。

    • 训练的本质:我们前几天说的“训练模型”,对于神经网络来说,其核心就是在寻找最佳的权重(w)组合。一个好的模型,就是找到了那么一套权重,使得整个网络面对任何输入,都能做出最正确的判断。

  • 神经网络 (Neural Network) 的结构

    • 它由大量的神经元分层排列组成。

    • 信息从输入层开始,单向地流向输出层,这个过程叫做“前向传播 (Forward Propagation)”。

    • 正是因为有了中间的“隐藏层”,神经网络才具备了学习复杂模式的能力。一层隐藏层可能只能识别一些简单的模式(比如图像的边缘、颜色块),但更深的层级可以基于前一层的结果,组合出更复杂的模式(比如眼睛、鼻子),最终在输出层识别出“人脸”。这就是所谓的特征提取

聊天时可以这样用

“深度学习之所以叫‘深’,就是因为它的神经网络里有很多‘隐藏层’。这让它能像人脑一样,从最基础的特征(比如点和线)一步步学习到非常抽象的概念(比如‘猫’或‘狗’)。”

“你可以把一个神经元想象成一个微型的决策单元。而整个神经网络就是成千上万个这样的小单元在协同工作,通过调整彼此之间的连接权重,最终做出非常复杂的判断。”

“我们这个模型效果不好,可能是神经网络的结构太简单了。我打算试着增加几层隐藏层,或者增加每一层神经元的数量,看看能不能让它捕捉到更复杂的特征。”

明日预告:我们今天知道了信息是如何在神经网络中“向前”流动的(前向传播)。但如果模型的预测错了(比如把狗识别成了猫),这个“错误”的信号是如何反过来告诉网络,让它去修正自己的权重(让员工们调整判断标准)的呢?这个“反思和修正”的过程,就是神经网络学习的精髓所在。明天,我们将学习两个核心机制:梯度下降 (Gradient Descent) 与 反向传播 (Backpropagation)

今天我们深入了AI的“硬件”层面。理解了神经元和神经网络,你就理解了深度学习的基本构造。我们明天见!