首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
用户85432687980
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
最新
热门
青训营X豆包MarsCode 技术训练营第七课 |自注意力机制
Transformer结构中的自注意力(Self-Attention)机制是一种让模型在序列的每个位置计算注意力权重的方法,这样模型就可以在不同的输入位置之间动态地分配不同的关注程度。自注意力机制的核
青训营X豆包MarsCode 技术训练营第四课 |GPT数据
数据和算力的重要性: 数据和算力是ChatGPT成功的关键因素之一,但OpenAI并未公开具体的训练数据集和算力消耗。 GPT系列模型的数据和规模: GPT初代:使用了BooksCorpus数据集(约
青训营X豆包MarsCode 技术训练营第六课 | 人工反馈强化学习模式
预训练大规模语言模型: 使用大量互联网文本数据,基于Transformer架构训练大型语言模型(LLM)。 预训练模型能够完成基本的文本生成任务,但可能不满足特定用户需求。 监督模型微调(SFT):
青训营X豆包MarsCode 技术训练营第五课 | 强化学习
强化学习简介: 强化学习是一种机器学习方法,通过智能体与环境的交互来学习最优决策策略。 它模仿生物进化的过程,通过不断尝试和错误来适应环境。 强化学习的关键要素: 状态(State):智能体和环境的当
青训营X豆包MarsCode 技术训练营第三课 |学习总结
ChatGPT模型训练过程: 预训练:使用大量文本数据进行语言模型的预训练。 微调:根据用户数据进行Fine-tuning,以适应特定任务。 强化学习:提升模型的知识涌现能力。 神经网络训练基础: 监
青训营X豆包MarsCode 技术训练营第二课 | 豆包MarsCode AI 刷题
第5节:Transformer模型结构 注意力机制:当前流行的神经网络模型核心,Transformer模型以此为基础构建。 Transformer结构组件:包括Self-Attention(自注意力机
青训营X豆包MarsCode 技术训练营第一课 | 豆包MarsCode AI 刷题
Token是任何NLP神经网络模型接受用户输入的最小颗粒度。 将用户输入的文本转换为 token 序列的过程就叫做 Tokenizer。它包含两部分,一部分是从文字转换为 token
个人成就
文章被阅读
799
掘力值
71
关注了
0
关注者
0
收藏集
0
关注标签
0
加入于
2024-10-25