首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
雅施达撒
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
雅施达撒
3年前
关注
【论文学习】个性化描述生成KOBE
Towards Knowledge-Based Personalized Product Description Generation in E-commerce原文链接 ...
0
评论
分享
雅施达撒
3年前
关注
【论文学习】动态推荐中的受欢迎度偏见
原文链接 简介 受欢迎度偏见(popularity bias)是推荐系统中长期存在的问题:受欢迎度高的项目被过度推荐,而用户可能感兴趣的不太受欢迎的项目被欠推荐,这种偏见对...
1
评论
分享
雅施达撒
3年前
举报
#掘友加油站#
一无所有
收起
查看大图
向左旋转
向右旋转
分享
评论
点赞
雅施达撒
3年前
关注
【论文学习】PURE
原文链接 简介 近几十年来,推荐系统在电子商务的多个领域都很流行。然而,现有的大多数推荐系统设计都想当然地采用了以下两个假设: 未观察到的用户与项目之间的交互(即未标记的用...
0
评论
分享
雅施达撒
3年前
关注
【论文学习】订单估计
Representation Learning for Predicting Customer Orders 简介 预测未来客户订单对零售商做出许多关键的运营决策具有重要参...
0
评论
分享
雅施达撒
3年前
关注
【论文学习】Learning to Rank
原文链接 简介 本文研究的是关于排名的学习,即构建一个模型或函数来排名对象,学习排名对于文档检索、协同过滤和许多其他应用程序都非常有用。 许多应用程序的中心问题是排名,包括...
0
评论
分享
雅施达撒
3年前
关注
【论文学习】VAM
原文链接 简介 创意在电子商务中对于产品的展示有着非常重要的作用,卖家通常会为综合展示创造多个创意,因此展示最吸引人的设计来最大化点击率(CTR) 是至关重要的。然而,创意...
0
评论
分享
雅施达撒
3年前
关注
【整理】多模态数据集
文本-图像 多模态理解和生成评估挑战榜(MUGE) 官网地址:https://tianchi.aliyun.com/muge ;Github:https://github....
0
评论
分享
雅施达撒
3年前
关注
【论文学习】EANN
简介 假新闻可以利用多媒体内容对读者进行误导和传播,产生负面影响,甚至操纵公众事件,在社交媒体上如何识别新出现事件是否为假新闻是一个新的独特挑战。论文中提出了一个端到端的框...
2
评论
分享
雅施达撒
3年前
关注
【论文学习】M6
简介 多模态预训练在跨模态表征学习的下游任务中取得了成功,然而目前尚缺乏大规模的汉语多模态预训练数据集。论文中提出了提出了最大的汉语预训练数据集,包括了1.9TB图片和29...
0
评论
分享
雅施达撒
3年前
关注
【论文学习】RGBT-CC
Cross-Modal Collaborative Representation Learning and a Large-Scale RGBT Benchmark for...
0
评论
分享
雅施达撒
3年前
关注
【论文学习】a deep knowledge-aware network(DKN)
这是我参与11月更文挑战的第14天 原文链接 简介 a deep knowledge-aware network (DKN)将知识图谱表示方法结合到新闻推荐中,它是一个基于...
0
评论
分享
雅施达撒
3年前
关注
神经网络学习笔记8——卷积神经网络
这是我参与11月更文挑战的第13天 卷积网络 之前使用的神经网络为全连接层网络,即:⽹络中的神经元与相邻的层上的每个神经元都有连接。这种网络架构不考虑图像的空间结构,对待相...
0
评论
分享
雅施达撒
3年前
关注
神经网络学习笔记7——普遍性证明
这是我参与11月更文挑战的第12天 神经网络的普遍性 神经⽹络的⼀个最显著的事实就是它可以计算任何的函数,称为普遍性,该定理在神经⽹络只在输⼊层和输出层之间存在⼀个中间层的...
0
评论
分享
雅施达撒
3年前
关注
神经网络学习笔记6——一些其他选择
这是我参与11月更文挑战的第11天 随机梯度下降的改进 Hessian技术 Hessian 技术是一种最⼩化代价函数的⽅法,对于$C=C(w),w=w_1,w_2,...$...
0
评论
分享
雅施达撒
3年前
关注
神经网络学习笔记5——超参数的选择方法
这是我参与11月更文挑战的第10天 之前权重的选择方式的根据独⽴⾼斯随机变量来选择权重和偏置,其被归⼀化为均值为0,标准差为1。这种方式存在明显的缺点,假设使用归一化高斯分...
0
评论
分享
雅施达撒
3年前
关注
神经网络学习笔记——过拟合问题
这是我参与11月更文挑战的第9天 神经网络的拟合能力依赖大量的参数调节(最先进的深度神经⽹络包含百万级或者⼗亿级的参数),因此可能产生过度拟合问题。为了改进神经网络,需要⼀...
1
评论
分享
雅施达撒
3年前
关注
神经网络学习笔记4——softmax层+对数代价函数
这是我参与11月更文挑战的第8天 除了交叉熵方法外,还有一种改进神经网络的方法——添加柔性最大值(softmax)神经元层 softmax神经元层 softmax神经元层为...
1
评论
分享
雅施达撒
3年前
关注
神经网络学习笔记3——交叉熵代价函数
交叉熵代价函数 改进代价函数来改进神经网络的学习方法显然是个好的思路, 对于S型函数$\sigma$它在输出接近1时会变得非常平,这也会导致学习变得缓慢。 这个问题可以通过...
0
评论
分享
雅施达撒
3年前
关注
神经网络学习笔记——反向传播
这是我参与11月更文挑战的第7天 反向传播 backpropagation —— 一种快速计算代价函数梯度的算法 使⽤矩阵快速计算输出 为了解释问题,首先给出神经网络中权重...
1
评论
分享
下一页
个人成就
文章被点赞
26
文章被阅读
71,301
掘力值
1,849
关注了
0
关注者
14
收藏集
0
关注标签
2
加入于
2020-09-27