首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
用户85432687980
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
用户85432687980
1年前
关注
青训营X豆包MarsCode 技术训练营第七课 |自注意力机制
Transformer结构中的自注意力(Self-Attention)机制是一种让模型在序列的每个位置计算注意力权重的方法,这样模型就可以在不同的输入位置之间动态地分配不同...
0
评论
分享
用户85432687980
1年前
关注
青训营X豆包MarsCode 技术训练营第四课 |GPT数据
数据和算力的重要性: 数据和算力是ChatGPT成功的关键因素之一,但OpenAI并未公开具体的训练数据集和算力消耗。 GPT系列模型的数据和规模: GPT初代:使用了Bo...
0
评论
分享
用户85432687980
1年前
关注
青训营X豆包MarsCode 技术训练营第六课 | 人工反馈强化学习模式
预训练大规模语言模型: 使用大量互联网文本数据,基于Transformer架构训练大型语言模型(LLM)。 预训练模型能够完成基本的文本生成任务,但可能不满足特定用户需求。...
0
评论
分享
用户85432687980
1年前
关注
青训营X豆包MarsCode 技术训练营第五课 | 强化学习
强化学习简介: 强化学习是一种机器学习方法,通过智能体与环境的交互来学习最优决策策略。 它模仿生物进化的过程,通过不断尝试和错误来适应环境。 强化学习的关键要素: 状态(S...
0
评论
分享
用户85432687980
1年前
关注
青训营X豆包MarsCode 技术训练营第三课 |学习总结
ChatGPT模型训练过程: 预训练:使用大量文本数据进行语言模型的预训练。 微调:根据用户数据进行Fine-tuning,以适应特定任务。 强化学习:提升模型的知识涌现能...
0
评论
分享
用户85432687980
1年前
关注
青训营X豆包MarsCode 技术训练营第二课 | 豆包MarsCode AI 刷题
第5节:Transformer模型结构 注意力机制:当前流行的神经网络模型核心,Transformer模型以此为基础构建。 Transformer结构组件:包括Self-A...
0
评论
分享
用户85432687980
1年前
关注
青训营X豆包MarsCode 技术训练营第一课 | 豆包MarsCode AI 刷题
Token是任何NLP神经网络模型接受用户输入的最小颗粒度。 将用户输入的文本转换为 token 序列的过程就叫做 Tokenizer。它包含两部分,一部分是从文字转换为 ...
0
评论
分享
用户85432687980
赞了这篇文章
字节跳动青训营
研发 @北京字节跳动网络技术有限公司
·
1年前
关注
伴学笔记 | 青训营X豆包MarsCode 技术训练营
实践记录和笔记,作为学习的得力助手,能够帮助我们更好地理解知识点,加深记忆,并提供一个有组织的学习框架。我们可以不断总结和反思,发现自己的不足之处,并逐步提升自己的学习能力...
73
24
分享
个人成就
文章被阅读
799
掘力值
71
关注了
0
关注者
0
收藏集
0
关注标签
0
加入于
2024-10-25