首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
NLP
订阅
John133766074
更多收藏集
微信扫码分享
微信
新浪微博
QQ
43篇文章 · 0订阅
【Transformer代码详解】基于Pytorch+Transformer的英译中项目(代码、数据集),计算机人工智能毕业设计
使用Pytroch实现Transformer代码的编写,并且进行英文翻译中文的操作,全程中文详细注释。
深度学习经典模型之BERT(上)
概述 BERT是一个双向transformer编码器的言表示模型。来自论文:BERT: Pre-training of Deep Bidirectional Transformers for Lang
聊聊transformers库——进阶-模型微调和保存
对模型进行微调与保存 微调(Fine-tuning)是一种迁移学习技术,通过在预训练模型的基础上进行少量训练,使模型适应新任务或新数据集。 在本节中,我们将介绍如何进行微调和复用。
基线提升至96.45%:2022 司法杯犯罪事实实体识别+数据蒸馏+主动学习
本项目给出本次法研杯详细的技术方案,从UIE-base开始到UIE数据蒸馏以及主动学习的建议,欢迎大家尝试,ps:主动学习标注需要自行实现,参考项目,楼主就不标注了。 项目链接:https://ais
中文NER的那些事儿1. Bert-Bilstm-CRF基线模型详解&代码实现
这个系列我们来聊聊序列标注中的中文实体识别问题,第一章从基准模型Bert+Bilstm+CRF说起,看看这个模型已经解决了哪些问题还有哪些问题待解决。以下模型实现和评估脚本,详见ChineseNER
CRF原理初探
关于CRF,很多博文都写的很好,不过本人认为,理解CRF,数学与概念都要重视,才能见效。希望这篇肤浅的文章能够帮助像我一样刚入门的NLPer扫去一些疑惑。
NLP突破性成果 BERT 模型详细解读
Google发布的论文《Pre-training of Deep Bidirectional Transformers for Language Understanding》,提到的BERT模型刷新了自然语言处理的11项记录。最近在做NLP中问答相关的内容,抽空写了篇论文详细解…
文本分类模型合集-详细注解--tf/pytorch双版本
文本相似度(匹配)计算,提供Baseline、训练、推理、指标分析...代码包含TensorFlow/Pytorch双版本,特别适合新手上手!
Bert预训练新法则
论文简介:还应在遮蔽语言模型中使用 15% 的遮蔽概率吗? 论文标题:Should You Mask 15% in Masked Language Modeling? 论文链接:https://arx
极智AI | OpenCL 使用流程解析
大家好,我是极智视界。本文介绍了 OpenCL 的使用流程,用 vector_add 的实现讲解了 cpp 和 .cl 文件的编写。希望我的分享能对你的学习有一点帮助。