首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
OASIS
掘友等级
机器学习与数据挖掘
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
OASIS
机器学习与数据挖掘
·
1年前
关注
为什么说逻辑回归是单一神经元?
逻辑回归等同于使用 sigmoid 激活函数的单神经元 MLP。这个神经元直接将输入特征映射到输出概率,实际上执行的计算与逻辑回归模型相同。因此,逻辑回归可以被视为MLP ...
1
评论
分享
OASIS
机器学习与数据挖掘
·
1年前
关注
极大似然估计与逻辑回归有什么关系?
极大似然估计(MLE)是一种统计方法,用于估计概率模型的参数,使得观测数据的概率最大化。逻辑回归(LR)是一个分类算法,它通过sigmoid函数将特征的线性组合映射到(0,...
1
评论
分享
OASIS
机器学习与数据挖掘
·
1年前
关注
经典推荐算法——矩阵分解的原理与实践
矩阵分解核心思想是将原始的交互矩阵分解为两个低秩矩阵的乘积,分别代表用户和物品的潜在特征。通过这种分解,算法可以在用户和物品的潜在特征空间内计算它们之间的相似度,进而预测用...
1
评论
分享
OASIS
机器学习与数据挖掘
·
1年前
关注
语义搜索与检索增强生成(RAG)
RAG(检索增强生成)结合了检索和生成技术,以改进自然语言处理。通过从大型知识库检索相关信息,然后将这些信息融入生成模型来生成响应,RAG能够提供更准确、信息丰富的答案,适...
0
评论
分享
OASIS
机器学习与数据挖掘
·
1年前
关注
L1 与 L2 正则化
* L1正则化倾向于产生更多的零权重或稀疏权重矩阵,从而实现特征选择。 * L2正则化则倾向于分散权重到所有特征上,使得权重值更小、更平均。...
0
评论
分享
个人成就
文章被点赞
3
文章被阅读
2,813
掘力值
117
关注了
0
关注者
2
收藏集
0
关注标签
19
加入于
2024-02-06