首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
transfromer理解
订阅
WingDust
更多收藏集
微信扫码分享
微信
新浪微博
QQ
31篇文章 · 0订阅
春哥的Agent通关秘籍05:工具调用 Function Calling【知识与思路篇】
LLM 问世之后,很长一段时间,人们发现了很多用例可以证明:AI不行啊,不是人工智能,而是人工智障。
17.1K star!两小时就能训练出专属于自己的个性化小模型,这个开源项目让AI触手可及!
🔥「只需一张消费级显卡,2小时完成26M参数GPT训练!」 🌟「从零构建中文大模型的最佳实践指南」 🚀「兼容OpenAI API,轻松接入各类AI应用平台」
Transformer : 深度神经网络中的残差连接 (Residual Connection)
** Transformer:深度神经网络中的残差连接 (Residual Connection)** 1. 概述 随着深度学习的发展,神经网络的深度不断增加,以期获得更强的表达能力。然而,简单的堆叠
通过“单词补全”演示 Transformer 原理(Python代码可运行)
我们来选一个 简单、直观、适合教学 的场景 —— 🎯 场景选择:字符级序列补全(Char-Level Sequence Completion) 比如: 输入:"hel" → 输出:"hello" 输入
从GPT-1到GPT-2的性能飞跃及其驱动因素分析
从GPT-1到GPT-2的性能飞跃及其驱动因素分析 摘要 本文档旨在对OpenAI GPT系列模型从第一代(GPT-1)到第二代(GPT-2)所实现的显著性能飞跃,进行深入的技术原因剖析。GPT-1开
一文讲清 PyTorch 中反向传播(Backpropagation)的实现原理
我们用生活化比喻 + 图解 + 代码示例 + 分步拆解,向初学者彻底讲清楚: 🎯 PyTorch 中反向传播(Backpropagation)的实现原理 —— 通俗易懂版 一、生活化比喻:开餐馆调配方
彻底搞懂 RoPE:位置编码的新范式
在 Transformer 架构中,位置编码是理解序列顺序的关键机制。自从 Google 提出原始的 Sinusoidal 编码以来,研究者一直在探索更高效、可泛化的方式。
从原理到实战:RLHF(人类反馈强化学习)完整流程
RLHF(Reinforcement Learning with Human Feedback)是近年来推动大语言模型(LLM)快速发展的关键技术之一。
全网最全的大模型分词器(Tokenizer)总结
你应该知道大模型的输入输出的单位是token,不是单词,也不是字母【在中文语境,不是词,不是字】,那么,token是什么呢?
亲手算一遍神经网络的反向传播,才算入门深度学习!
引言 想象一下,你正在教一个孩子识别猫和狗的照片。刚开始,孩子总是搞错,把猫说成狗,把狗说成猫。但是每次犯错后,你都会告诉他:"不对,这是猫!"然后孩子会调整自己的判断标准,下次遇到类似的照片时就能做