首页
首页
BOT
沸点
课程
直播
活动
AI刷题
NEW
商城
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
SeanLiu
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
大白话系列:穿越GPT的进化史
GPT的发展历程 Transformer架构是google的研究人员在2017年提出来的,核心是里面的自注意力机制。 2018年OpenAI基于Transformer发布了GPT-1模型,在多语言任务
大白话系列:从名字开始理解GPT
GPT 是 OpenAI 开发的自然语言处理模型,名称含义可倒序解读。其本质是预测下一个单词概率最大者,以 Transformer 为架构核心,基于直觉及预训练,突破传统 NLP 瓶颈,推动 NLP
探秘LSTMs及其变体的奇妙世界(基础篇)
本文介绍了 RNN 的长期依赖及梯度消失问题,致使其仅有短时记忆。LSTM 可解决此问题,其核心架构含遗忘、输入、输出门及单元状态,还有窥视孔链接、耦合门等变体。GRU 是 LSTM 变体,更简单。
Pre-trained Model 之 BART基础总结
BART BART(Bidirectional and Auto-regressive Transformer) 论文地址:BART: Denoising Sequence-to-Sequence P
Pre-trained Model 之 BERT基础总结
BERT 定义 BERT (Bidirectional Encoder Representations from Transformers) 利用基于 Transformer 的神经网络来理解和生成类
个人成就
文章被阅读
162
掘力值
66
关注了
0
关注者
0
收藏集
0
关注标签
2
加入于
2024-11-28