深度学习-推荐系统 第一章研读笔记(6)

112 阅读2分钟

引言

  • 本文继续介绍推荐系统研读笔记,紧接上次文章的梯度下降法,本文将介绍其他的升级版的推荐模型

逻辑回归-融合多种特征的推荐模型

简介

  1. 对于协同过滤与矩阵分解仅利用用户与物品的相互行为信息进行推荐的缺陷,逻辑回归则能综合用户,物品,上下文等多种特征,生成较为全面的推荐。另外逻辑回归的另一种表现形式”感知机“作为神经网络中最基础的单一神经元,是深度学习的基础结构。因此能够进行多特征融合的逻辑回归模型成了独立于协同过滤的推荐模型发展的另一个主要方向。
  2. 不同于上面两种方法计算相似度来进行推荐,逻辑回归将推荐问题看成一个分类问题,通过预测正样本的概率对物品进行排序。因此逻辑回归将推荐问题转换成了点击率CTR预估问题。

逻辑回归模型的推断过程:

  1. 将特征向量x=(x1,x2,x3,.....,xn)^T作为模型的输入,其中x为特征,编号为不同的特征
  2. 通过为各特征赋予相应的权重(w1,w2,w3,...,wn)来表示各特征的重要性差异,将各特征进行加权求和,得到 X^T W
  3. X^T W输入激活函数sigmoid函数中,使之映射到0~1之间,得到最终的点击率,如下图所示

image.png

逻辑回归的训练方法:

  • 梯度下降法是应用最广泛的训练方法

求解逻辑回归的目标函数时要用到极大似然估计,该方法的详解不做赘述,贴上参考资料 极大似然估计:

逻辑回归模型的优势与劣势:

  • 数学含义的支撑:简易理解就是点击与否是符合伯努利分布的,逻辑回归刚好符合
  • 可解释性强:从特征加权融合,再通过激活函数映射都符合的整个过程都是符合CTR物理意义的
  • 当时工程化的需要,逻辑回归易于并行运算,训练开销小,模型简单在大数据量面前比较吃香
  • 劣势:表达能力不强,无法进行交叉与特征筛选等操作(交叉衍生了fm,ffm,特征筛选衍生了gbdt+lr)