首页
沸点
课程
AI Coding
数据标注
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Youkre
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
Youkre
2月前
关注
为什么困惑度要用 N 次方根?——《Speech and Language Processing》第三章阅读笔记
自然语言处理中的困惑度为什么要“取 N 次方根”?直接除以 N 不行吗?这里其实是在计算几何平均数。...
0
评论
分享
Youkre
3月前
关注
Transformer:让神经网络学会“全局扫描”——从“逐字阅读”到“一眼看懂”
本文带你迈出革命性的一步:彻底抛弃RNN,迎来真正的大模型基石Transformer。我们将讲解自注意力机制的核心思想,亲手构建一个完整的 Transformer Seq2...
0
评论
分享
Youkre
4月前
关注
注意力机制:让神经网络学会“重点回顾”
让解码器在生成每个词时,能“回头看”输入序列,自动找到最相关的部分,它解决了 Seq2Seq 的核心痛点,上下文向量容量有限,长句子信息丢失严重...
0
评论
分享
Youkre
4月前
关注
Seq2Seq:教神经网络“中译英”——从一句话到一段话
Seq2Seq 就像一个“双人翻译小组”,用编码器把所有意思浓缩成一个“小纸条”,再让解码器看着这张小纸条,用另一种语言说出来...
0
评论
分享
Youkre
4月前
关注
LSTM:给神经网络装上“长期记忆”
NN记性不太好,如果文章太长,前面写的笔记就会慢慢模糊,甚至被新内容覆盖,用长短期记忆网络LSTM来改进...
0
评论
分享
Youkre
4月前
关注
RNN:让神经网络学会“记笔记”
RNN 就像一个会写读书笔记的学生,每读一个词,他就翻看之前的笔记,结合新词,写下新的理解,这样,整段话的“上下文”就被保存在了最后一页笔记里...
0
评论
分享
Youkre
4月前
关注
改进Word2Vec:从“暴力计算”到“聪明学习”
Word2Vec 原始模型计算太慢?本文带你升级!用 nn.Embedding 替代 one-hot,高效提取词向量。引入负采样,化“大海捞针”为“真假判断”,大幅加速训练...
0
评论
分享
Youkre
4月前
关注
自然语言处理入门:从一句话到词向量——用PyTorch实现Word2Vec
计算机不懂人类语言,它只懂数字。我们要让AI理解“猫”和“狗”是相似的动物,第一步就是把“猫”变成一串数字向量——这就是Word2Vec的核心思想。...
0
评论
分享
个人成就
文章被阅读
670
掘力值
89
关注了
0
关注者
0
收藏集
0
关注标签
4
加入于
2025-10-08