首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
山淼
掘友等级
计算机视觉 &大模型岗位从业者
原创干货分享。AI 技术分析、项目实战与资讯解读。欢迎关注首发平台vx公众号“观智能”
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
一文真正搞懂Transformer,不再被误导
本文将剖析Transformer关于注意力机制的几个技术要点,包括encoder端的自注意力机制、decoder端的masked自注意力机制(训练阶段需要,推理阶段也需要)以及decoder端的交叉注
一文轻松搞懂Transformer PE位置编码
Transformer的attention机制需要需要额外添加词的位置信息,本文希望通过简洁的语言和例子,以一个更直观的角度向读者展示位置编码的特点及其作用。
Pytorch模型和训练集搭建与训练,以人体姿势分类为例
本文将以一个简单的人体姿态分类模型为例来展示Pytorch模型搭建和训练的过程,为读者日后理解或搭建更复杂的模型提供基础。
个人成就
文章被点赞
7
文章被阅读
10,860
掘力值
180
关注了
2
关注者
3
收藏集
0
关注标签
7
加入于
2024-12-01