学习人工智能已经快两年多啦,加之以前在数学系对纯数学有过几年的臆想磨练,自我感觉是有一点心得的,一路走来,各种绕弯苦痛。
比如,先要实战,就是一行一行的代码你要能敲出来,或者会调用库TensorFlow/Pytorch工具给人一个展示。 好,当你好不容易学会调用几个接口或GitHub上下个源码鼓捣出来了,问: 您知道原理吗?一些参数的细节该如何解释?为什么会过拟和呢?神经网络有可解释性吗?这......
好,要懂理论,不就是数学嘛?这汪洋大海!分析,代数,概率论足以让人苦不堪言...... 赫,好不容易理论方面,感觉有点醍醐灌顶了;敲代码、调接口、手已不听使唤,早忘光了(这是人脑的特点)!
不行,要实战,要有实战能力!光理论不行,且更有甚者可能还会拿PDE(偏微分方程),泛函,抽代,拓扑....来说事,让你进入下一轮循环。殊不知,这可都是九阴真经中的九阴真经啊......计算机的那二进制真的能接得住招吗?
如此循环往复,若是能跳出来一看,有时不免觉得好笑。
......
希望很多人能够快速的“醍醐灌顶”,然后跳出来。所以,近期,我决定来做这个捅破窗户纸的工作---窥探AI的数学本质!让您早日看清这个循环的把戏,但注意,不是从失败的资本投资或相应管理者角度,看衰它。
若用几句话简短的话总结一下AI的本质,立马能映入脑中的只有:
模型的最初源头---最小二乘法
计算机求解的基本算法---梯度下降,本质就是导数
解决问题的核心思想---函数逼近,数学语言叫函数拟和,再专业一点称为调和分析
概率统计思维的基石---贝叶斯推断,高斯分布加微积分
模型用先验假设结合后验统计数据---理论到实际的过程
算法采用极大似然法直接求解是数学技巧,用梯度下降就是计算机的专长
神经网络---只不过是一种全新的拟和思想,拟和因子变成了矩阵操作而已
......
总结成一句话,就是微积分加拟和,好像再无更多!
当然,具体展开有不少细小知识点与数学技巧,也并不神秘,未来计划逐一展开,欢迎大家关注公众号---数学之水,敬请期待。
这儿先给大家一个whole picture,愿您相信,也坚信,如果看完本公号的所有系列讲解,您一定能与我的想法吻合。