首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
CReep
掘友等级
算法工程师
|
字节跳动
专注于NLP,主要是focus 文本匹配,小样本学习,音频也有涉略哦,欢迎一起学习交流~
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
18
文章 18
沸点 0
赞
18
返回
|
搜索文章
最新
热门
样本不均衡的解决办法
1、使用focal loss focal loss主要是针对不同label进行加权,同时更加关注于hard sample。 首先在原有的基础上加了一个因子,其中gamma>0使得减少易分类样本的损失。
文本生成评估指标,BLUE的缺点
BLEU BLEU (Bilingual Evaluation Understudy,双语评估辅助工具)可以说是所有评价指标的鼻祖,它的核心思想是比较候选译文和参考译文里的 n-gram 的重合程度,
NLP中实体关系抽取小结
实体关系抽取(ERE)是信息抽取关键任务之一,主要是分为两个子任务:实体抽取和关系抽取。对于该任务主要是有两种方式。
AdaPrompt/进一步将下游任务融入到预训练模型
hi,各位伙伴们早上好,好久没有更文了,最近也没有发觉特别有意思的论文,今天给大家带来一篇和Prompt相关的论文,欢迎食用~ 论文地址:https://export.arxiv.org/pdf/22
引入对抗训练的对比学习
hi!又到每周分享的时刻了,希望看官老爷们能有收获呀!!!!!!!!!!!!!! 今天主要给大家介绍两篇有关对比学习的论文。 对比学习这样的方法在自然语言中备受关注。
逻辑回归数据为什么要离散化?
1、引入非线性,逻辑回归本质上还是广义上的线性函数,表达能力有限,经过离散化后,每个变量有单独的权重,这相当于引入了非线性,能够提升模型的表达能力,加大拟合
如何优雅的将Prompt应用于多任务场景?
今天想和给大家介绍的工作是如何将Prompt应用于多任务的场景,常见的Multi-task模型一般的架构是底部共享参数,然后在顶层每个场景学习自己的私有参数典型的代表模型有MMoE等。
self.attention 和attention 有什么区别
从字面意思上来理解其实self.attention就是自己和自己做相识度计算,其实就是每个词和句子中其他词计算相识度,利用上下文增强目标词的表达。
引入对抗训练的对比学习
能力的编码器构建分类任务。然而,在NLP任务中,通过对比学习构建学习对要困难得多。之前的工作产生词级变化以形成对比对,但小的变换可能会导致句子含义的显著变化。
如何引入外部知识增强短文本匹配?
简单介绍下短文本匹配任务,就是两个句子送入模型,然后做一个二分类,判断两个句子是否相识。。。。。。。
下一页
个人成就
文章被点赞
3
文章被阅读
19,092
掘力值
406
关注了
1
关注者
3
收藏集
0
关注标签
0
加入于
2020-07-31