监督学习和无监督学习
监督学习: 回归问题、分类问题
无监督学习: 所得数据集无标签或类型。聚类算法
线性回归算法
假设函数:x-> h(x)-> y
hθ=θ0+θ1x (单变量线性回归)
代价函数:J(θ0,θ1)=2m1i=1∑m(hθ(x(i))−y(i))2
梯度下降算法:
θj:=θj−α∂θj∂J(θ0,θ1) ( 相似地更新 j = 0 and j = 1 )
α : 学习率,选择合适学习率,最终 θ0、θ1 会收敛于一个值(局部最优点,偏导等于0)
得到结果:
需选择学习率,多次迭代,当n较大时计算较快
特征方程算法:
无需选择学习率,特征变量的数量n较大时计算较慢
分类算法——Logistic回归
假设函数:hθ(x)=g(θTx)
g(z)=1+e−z1 (sigmoid函数)

预测:
若hθ(x)≥0.5 , 即z≥0 时, y=1 正类;
若hθ(x)<0.5 , 即z≤0 时, y=0 负类
代价函数:J(θ)=m1i=1∑mCost(hθ(x)(i),y(i))
其中
Cost(hθ(x),y)={−log(hθ(x),y=1−log(1−hθ(x)),y=0
简化得:J(θ)=−m1[i=1∑my(i)loghθ(x(i))+(1−y(i))log(1−hθ(x(i)))]
θj:=θj−α∂θj∂J(θ)
得到结果:
θj:=θj−αi=1∑m(hθ(x(i))−y(i))xj(i)
解决过拟合问题
方法:正则化
