首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Youkre
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
Transformer:让神经网络学会“全局扫描”——从“逐字阅读”到“一眼看懂”
本文带你迈出革命性的一步:彻底抛弃RNN,迎来真正的大模型基石Transformer。我们将讲解自注意力机制的核心思想,亲手构建一个完整的 Transformer Seq2Seq 模型
注意力机制:让神经网络学会“重点回顾”
让解码器在生成每个词时,能“回头看”输入序列,自动找到最相关的部分,它解决了 Seq2Seq 的核心痛点,上下文向量容量有限,长句子信息丢失严重
Seq2Seq:教神经网络“中译英”——从一句话到一段话
Seq2Seq 就像一个“双人翻译小组”,用编码器把所有意思浓缩成一个“小纸条”,再让解码器看着这张小纸条,用另一种语言说出来
LSTM:给神经网络装上“长期记忆”
NN记性不太好,如果文章太长,前面写的笔记就会慢慢模糊,甚至被新内容覆盖,用长短期记忆网络LSTM来改进
RNN:让神经网络学会“记笔记”
RNN 就像一个会写读书笔记的学生,每读一个词,他就翻看之前的笔记,结合新词,写下新的理解,这样,整段话的“上下文”就被保存在了最后一页笔记里
改进Word2Vec:从“暴力计算”到“聪明学习”
Word2Vec 原始模型计算太慢?本文带你升级!用 nn.Embedding 替代 one-hot,高效提取词向量。引入负采样,化“大海捞针”为“真假判断”,大幅加速训练。代码实战,教你打造聪明高效
自然语言处理入门:从一句话到词向量——用PyTorch实现Word2Vec
计算机不懂人类语言,它只懂数字。我们要让AI理解“猫”和“狗”是相似的动物,第一步就是把“猫”变成一串数字向量——这就是Word2Vec的核心思想。
个人成就
文章被阅读
875
掘力值
79
关注了
0
关注者
0
收藏集
0
关注标签
4
加入于
2025-10-08