首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
AI研究员
掘友等级
AI研究员
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
大模型入门第三课:从零开始构建GPT 2.0
本文基于《从零构建大模型》,讲解如何用 PyTorch 从头实现一个简化版 GPT。内容涵盖数据集构建、Embedding 原理、多头自注意力、Transformer结构以及完整 GPT构建过程。
大模型第二课:编码注意力机制
我们在第一课讲述了Transformer的基本原理,这一课,我们用代码实现注意力机制。本文主要实现了最基本的自注意力机制, 因果注意力机制和多头注意力机制。
大模型入门第一课: 理解Transformer
Transformer 以注意力机制为核心,通过自注意力与多头注意力建模序列中多种依赖关系;Encoder 负责编码上下文语义,Decoder 在约束下生成输出,残差与归一化保证深层稳定训练。
个人成就
文章被阅读
106
掘力值
30
关注了
0
关注者
0
收藏集
1
关注标签
6
加入于
2026-01-30