首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
论文笔记
小珠桃子
创建于2022-01-19
订阅专栏
论文阅读随笔记录。
暂无订阅
共29篇文章
创建于2022-01-19
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
【论文笔记】多模态情感计算:AI如何分析你的生理情绪(下)
【实验部分】这篇论文面向 2021 年 MuSe-Physio 子挑战——一个多模态情感分析任务,目的是在高度紧张的自由演讲场景下,利用组合的视听信号和受试者的皮肤电反应预测生理情绪。
【论文笔记】多模态情感计算:AI如何分析你的生理情绪(上)
【方法部分】这篇论文面向 2021 年 MuSe-Physio 子挑战——一个多模态情感分析任务,目的是在高度紧张的自由演讲场景下,利用组合的视听信号和受试者的皮肤电反应预测生理情绪。
【论文笔记】在Transformer架构中融合多输入,怎么做效果比较好?(下)
【实验部分】作者针对 Transformer 架构设计了一系列融合输入的方法,然后将这些方法用在多模态机器翻译和多源机器翻译任务中。
【论文笔记】在Transformer架构中融合多输入,怎么做效果比较好?(上)
【模型部分】作者针对 Transformer 架构设计了一系列融合输入的方法,然后将这些方法用在多模态机器翻译和多源机器翻译任务中。
【论文笔记】多模态翻译效果也就那样,视觉信息到底有没有用?(下)
【实验部分】多模态机器翻译火了这么久,各路学者八仙过海各显神通,但效果提升却都比较有限。视觉信息对翻译真的有帮助吗?本文作者用实验给出了答案。
【论文笔记】多模态翻译效果也就那样,视觉信息到底有没有用?(上)
【方法部分】多模态机器翻译火了这么久,各路学者八仙过海各显神通,但效果提升却都比较有限。视觉信息对翻译真的有帮助吗?本文作者用实验给出了答案。
【论文笔记】Distilling Translations with Visual Awareness:先翻译、再完善(下)
【实验部分】本文收录于 ACL 2019 ,第一作者 Julia Ive 来自谢菲尔德大学。作者采用了一种两阶段的翻译方法,先得到草稿,再同时用文本和视觉上下文来完善翻译结果,效果不错。
【论文笔记】Distilling Translations with Visual Awareness:先翻译、再完善(上)
【模型部分】本文收录于 ACL 2019 ,第一作者 Julia Ive 来自谢菲尔德大学。作者采用了一种两阶段的翻译方法,先得到草稿,再同时用文本和视觉上下文来完善翻译结果,效果不错。
【论文笔记】用整个数据集构建图文字典,减轻大规模MMT数据集依赖
本文发表于 ICLR 2020 ,一作来自上海交大赵海组。作者用整个数据集构建了一个图文查询表,在翻译时用源句关键词检索图像,效果提升的同时,减轻了对大规模双语-图像数据集的依赖。
【论文笔记】VMT+HAN:视频多模态机器翻译的小创新
本文是 ACL 2021 的一篇 Workshop 论文,作者来自京都大学。作者把层次注意力网络用在视频MMT基线模型VMT中,取得了不错的结果。
【论文笔记】DCCN:胶囊网络与动态路由,为MMT提取高质量视觉特征
本文发表于 ACM MM 2020,作者团队来自厦门大学。作者将胶囊网络用在多模态机器翻译的解码器中,动态提取图像的视觉特征辅助翻译,取得了比较好的结果。
【论文笔记】Multimodal Transformer:多模态机器翻译中,视觉信息不能喧宾夺主
在多模态机器翻译中,图像和文本两个模态的信息不是同等重要的,但过去的工作却都没有注意这个问题。本文提出了一种多模态自注意力方法,达到了 SoTA ,发表于 ACL 2020,作者来自北京大学。
【论文笔记】FLAN:Prompt之后,语言模型的泛化能力还能否更进一步?
通用语言模型新思路!谷歌提出新模型FLAN,基于指令微调,在参数少400亿的情况下,性能超越GPT-3。
【Prompt系列】(五) [论文分享] KPT:知识图谱赋能,Verbalizer也可以更聪明一点
之前一直在介绍 Prompt Engineering 的相关工作,本期分享的这篇 KPT 则着力于 Answer Mapping,探索 verbalizer 的设计,来自清华刘知远老师组。
【Prompt系列】(四) [论文分享] Pre-trained Prompt Tuning:这是一份来自清华的PPT
本文是【Prompt系列】的第四篇,本期论文既有设计思路的探索,又有训练策略的创新,是清华 CoAI 和 清华 NLP 等知名团队的作品。
【Prompt系列】(三) [论文分享] Null Prompts:比 AutoPrompt 更懒的做法是摆烂
本文是【Prompt系列】的第三篇。上期分享了一种自动设计 prompt 的方法,本期介绍的这篇论文 Null Prompts,直接“自暴自弃”,连 prompt 模板都不设计了……
【Prompt系列】(二) [论文分享] AutoPrompt:别瞎设计了,费力不讨好
本文是【Prompt系列】的第二篇。上期介绍了 Prompt 的一些入门知识,本期选取一篇 Prompt Engineering 相关的经典工作 AutoPrompt 分享给大家。
【Prompt系列】(一) 简介:NLP又出新范式?预训练新宠Prompt有点火
Prompt 作为 NLP 领域近期出现的新范式,在近几个月成为 NLP 研究的大热门。本文是【Prompt系列】的开篇,希望对大家有所帮助。
【论文笔记】ViT:Transformer 能否实现 CV 与 NLP 的大一统?
本文发表于 ICLR 2021,第一作者 Alexey Dosovitskiy 来自 Google Research。
【论文笔记】VLM:通用视频-文本模型预训练
本文发表于 ACL 2021 Findings,第一作者 Hu Xu 来自 Facebook AI。
下一页