首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
机器学习
Forlogen
创建于2021-07-05
订阅专栏
机器学习算法和实践
等 3 人订阅
共93篇文章
创建于2021-07-05
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
sklearn-回归算法的学习
1. import matplotlib.from sklearn.# normalize:boolean,可选,默认false,若fit_intercept = false则忽略此参数。[0.067732,3.176513],[0.427810,3.816464],[0.995...
线性回归问题回顾
1. 为什么我们在线性回归中使用的损失函数是平方误差函数? 在线性回归中选用误差平方和作为误差函数,其实就是将误差假定为了0均值的高斯正态分布。这也就是为什么还会存在sigmoid逻辑回归(以伯努利分布分析误差),以及softmax等一般线性回归(以指数分布分析误差)。 假设模型...
sklearn学习目录
原始目录网址: 全栈:https://blog.csdn.python:https://blog.csdn.net/luanpeng825485697/article/details/78347433 数据集:https://archive.ics.uci.edu/ml/inde...
条件随机场
感性的理解条件随机场中文:如何轻松愉快地理解条件随机场(CRF)?英文原文:Introduction to Conditional Random Fields如何用简单易懂的例子解释条件随机场(CRF
隐马尔科夫模型
今天学习了《统计学习分析》的第10章-隐马尔科夫模型,一堆公式看的云里雾里,虽然基本上都可以看明白,但为了理解的更深,还是看看别人已经总结好的文章比较好,省了时间,同时效果更好。A : numpy.B: numpy.pi: numpy.self.self.self.N = sel...
EM算法
看完《统计学习分析》上有关EM算法的理论知识后,对其有了一个认识,后又在网上看了几篇博客,觉得写的不错,可以看一下。 pro_A, pro_B, por_C = 0.5, 0.5, 0.pro_1 = pro_A * math.pow(pro_B, data[i]) * math...
朴素贝叶斯(Naive Bayesian)
朴素贝叶斯是一种经典的机器学习的分类算法,基本原理很简单,学过概率论和数理统计的应该很容易理解。分类问题是人们日常生活中一种最常见的问题,比如我们需要分辨不同的人、在买菜或买水果时要分辨不同的类别等等,很多时候我们是基于之前的经验进行分类,贝叶斯分类算法也是这样的原理。它根据已有...
Stanford机器学习-异常检测和多元高斯分布
这章主要学习异常检测问题,它是机器算法的一个常见应用,同时也对于我们生活中的很多问题有很大的帮助,总的来说,它主要用于非监督的学习问题。 那我们怎么来理解异常检测是一个怎么样的问题呢?我们来看一个相关的问题:飞机引擎的检测。因为引擎对于飞机来说是一个很重要的部件,所以对于它的质量...
李宏毅机器学习PTT的理解(2)深度学习为甚深?
在深度学习中,是不是我们模型的隐藏层越多,每一层的单元越多就越好呢?下面我们可以看一下在不同形式的层下的性能 结果是的!这是在我们不考虑其他的因素的情况下的理想情况,现实中可能不能无限制的构建非常非常大的模型。 层数不多,每一层很大的网络相比于层数很多每一层不大的网络,哪个更好呢...
李宏毅机器学习PTT的理解(1)深度学习的介绍
机器学习就像是寻找一个合适的函数,我们输入数据就可以得到想要的结果,比如: 在语音识别中,我们输入一段语音,函数的输出值就是识别的结果;在图像识别中,输入一张照片,函数可以告诉我们分类的结果;在围棋游戏中,输出的下一步落子的位置等。 学习的框架大致如下: 创建的模型可以看成是一系...
Stanford机器学习-降维
在前面学习了第一个无监督的学习算法-聚类,主要是K-means算法,接下来要学习第二个无监督的算法-降维。促使我们使用降维的原因有很多,可能是我们希望压缩数据,来减小数据占用计算机内存或是硬盘的大小,也可能是希望通过降低数据的维度来加快我们的算法的运行。比如我们有上面的一些数据,...
Stanford机器学习--聚类
前面所学习的回归算法、分类算法都可以归于监督学习,即在开始之前我们就知道了数据属于的类别或是明白决策边界的相对位置,下面来学习一下无监督的学习算法-聚类,主要是学习最基本的K-means聚类,像层次聚类、密度聚类等其他算法以后慢慢来看。 上图就是一个很简单的回归模型,我们给定一个...
Stanford机器学习-支持向量机SVM
一直拖着也没总结,看到东西太多了就嫌麻烦了,哎。。。找一篇别的博主的文章来学习一下。
Stanford机器学习-应用机器学习的建议
1. 前面我们以及学习了线性回归、Logistic回归和神经网络等不同的机器学习算法,那么在实际应用中,如果我们需要设计一个机器学习系统或是想要改进现存的某个系统的性能时,选择一条合适的道路,也就是选择一些适合与实际问题的方法,将达到事半功倍的效果。 那么我们以前面学习的预测房价...
Stanford机器学习-Neural Networks : learning
前面学习了有关神经网络的基本知识和一些小的例子,这节课学习更深层次的东西,首先来看代价函数。我们假设我们的神经网络如图所示,给定数据集D={(x1,y1)…(xn,yn)},x表示输入信号,y表示输出信号,L表示神经网络的层数 Sl表示每一层上神经元单元的个数。在分类问题中,我们...
Stanford机器学习-Neural Networks Representation
在一般分类问题中,我们可以使用一条直线或是曲线,将其进行一个正确的分类;在如下类似的多分类问题中,我们找到一条曲线进行合理的划分。在特征较少时我们使用Logistic回归取得很好的效果,此时表达式中只有x1和x2两个变量的组合。但如果我们的特征很多时,比如有100个特征,比如在房...
支持向量机(support vector machines)
SVM就可以得到一大堆的相关资料,李航的《统计学习方法》和周志华的《机器学习》乃至于任何一本和机器学习相关的书籍无一例外都会花很多篇幅去介绍SVM的相关内容,大家只要仔细的看过几篇,对于其中涉及的各种概念和方法,如最大间隔、线性可分、对偶条件、拉格朗日乘子法、KKT条件、软间隔和...
模型评价的不同方式
在根据具体的问题实现一个模型后,我们需要对它的性能进行度量,但是在对比不同模型的能力时,使用不同的性能度量方式往往会导致不同的评判结果,这意味着模型的好坏是相对的。所以我们需要根据具体的需求,选择合适的度量方式。下面给出几种模型评估中常用的度量方式,希望大家可以有一个基本的了解。...
K近邻(k-nearest neighbor, KNN)
最近在看《信息检索导论》这本经典著作的同时复习一下经典的机器学习算法,而且想着之前的学习中偷懒并没有对这块内容做过总结,所以趁着这个契机重新过一遍。f中假设的参数。KNN是一种基于实例的学习算法(instance-based learning),它并没有显式的学习过程,即它并没有...
Logistic Regression 应用例子-鸢尾花分类
5.1,3.5,1.4,0.4.9,3.0,1.4,0.4.7,3.2,1.3,0.4.6,3.1,1.5,0.5.0,3.6,1.4,0.5.4,3.9,1.7,0.4.6,3.4,1.4,0.5.0,3.4,1.5,0.4.4,2.9,1.4,0.4.9,3.1,1.5,0....
下一页