首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI
订阅
Cyrusky
更多收藏集
微信扫码分享
微信
新浪微博
QQ
3篇文章 · 0订阅
「GPT-4只是在压缩数据」,马毅团队造出白盒Transformer,可解释的大模型要来了吗?
AGI 到底离我们还有多远?在 ChatGPT 引发的新一轮 AI 爆发之后,一部分研究者指出,大语言模型具备通过观察进行因果归纳的能力,但缺乏自己主动推理新的因果场景的能力。
预训练语言模型关系图+必读论文列表,清华荣誉出品
机器之心整理,项目作者:王晓智、张正彦,参与:张倩、杜伟。 项目的两位作者——王晓智和张正彦都是清华大学的在读本科生。其中,王晓智师从清华大学计算机系教授李涓子和副教授刘知远,研究方向为 NLP 和知识图谱中的深度学习技术,于今年 4 月份入选 2019 年清华大学「未来学者」…
BERT–NLP中先进的语言模型
BERT(Transformers的双向编码器表示)是GoogleAI语言的研究人员发表的一篇论文。它在机器学习领域引起了轰动,因为它在许多NLP任务中都取得了最优秀的结果,包括问答(SQuADv1.