首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
清雅白露记
掘友等级
机器学习
长文也发在 zhuanlan.zhihu.com/qingya-math
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
8
文章 8
沸点 0
赞
8
返回
|
搜索文章
最新
热门
统计学与机器学习的关系
学习机器学习的时候,发现在机器学习中和统计学的很多概念比较相像,以前没有搞清楚统计学与机器学习到底是什么关系,最近看了一下《ALLofstatistics》这本书,发现其中讲清楚了统计学与机器学习的关
极大似然简介
极大似然法的思想始于高斯的误差理论,在各种估计方法中较为优良,它属于频率学派的点估计法的一种。 频率学派的参数估计方法,不管是矩估计,极大似然法,区间估计或者其他方法,在抽取样本之前对参数 没有任何了解。 这里和 贝叶斯方法 区别一下:Bayesian的基本观点是在抽取样本之前…
变分法理解3——例题求解
在第2篇文章中,推导出了欧拉-拉格朗日方程,本文用它来解决第1篇文章中的两个简单的泛函问题。 问题的具体描述见第1篇文章,在第1篇文章中求的是从坐标原点(0,0)到点(a,b)的连接曲线是 y = y(x),不失一般性,这里将其改成求点 到点 的最短连线。 两点之间最短路径问题…
变分法理解2——基本方法
本文是变分法理解系列的第2篇文章,本文的要点如下: 基本概念 两个引理 什么是函数的变分 什么是泛函的变分 Euler–Lagrange equation的证明 具有某种共同性质的函数构成的集合称为类函数,记作F。例如在最速降线例子中的所有…
PRML读书笔记1——1.1节
很多书的第一章其实是敷衍了事,而PRML的第一章却是有点东西,它构思精妙,用一个例子引出了概率论,高斯分布,Bayesian方法,决策论,信息论等贯穿全书的基本方法。 在进入1.1节以前,书上讲了一些知识铺垫。 寻找数据中模式的问题一直以来都是一个fundamental的问题。…
分部积分法(integration by parts)
分部积分法是微积分中重要的计算积分的方法。它的主要原理是把一个积分转变成另一个较为容易的积分。 这就是不定积分的分部积分公式,当求有困难的时候,而求比较容易,就可以利用公式(1)。 这就是定积分的分部积分公式。
PRML读书笔记0——写在前面的话
PRML的全称是Pattern Recognition and Machine Learning,中文名字叫模式识别与机器学习,这本书的英文版可以在网上免费下载。 PRML是一本机器学习领域的经典著作,读后收获非常大。 内容选取得当。我看的版本是06年,但是现在看完全不过时。这…
写作平台选择记
静态网站托管,把你的静态网站托管到github pages等。注意,只能是静态的网站,但是大多数是免费方案,这个不需要租用服务器或空间,但是也需要折腾于静态网站的配置 传统博客,如blogger,csdn,博客园,oschina等。 新型社区,如medium,简书,掘金,Seg…
斯坦福 cs224n lecture10学习笔记
Stanford的CS224n课程主要讲的是Natural Language Processing with Deep Learning的知识,其中Lecture 10的主题是Machine Translation and Models with Attention.
矩阵的广义逆及python实践
机器学习的代码中经常有求矩阵的广义逆,本文先从概念上总结了矩阵的广义逆,然后用python的numpy库实践。 矩阵的广义逆(Generalized inverse)也称为伪逆(pseudo inverse),假设一个矩阵 及另一矩阵 ,若 满足 ,则 即为A的广义逆矩阵。 提…
下一页
个人成就
文章被点赞
35
文章被阅读
26,223
掘力值
535
关注了
1
关注者
1,601
收藏集
4
关注标签
11
加入于
2018-07-23