首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
AI全栈学习
Paramita
创建于2025-04-07
订阅专栏
从前端开发到AI全栈的学习之路
暂无订阅
共5篇文章
创建于2025-04-07
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
AI创作新时代:视觉生成模型的技术演进
本文回顾了视觉生成模型的发展历程,从VAE、GAN、DM到DiT,见证了从概率建模、对抗生成到噪声去噪机制的演变。
多模态模型Transformer架构:从视觉到融合
本文探讨了从计算机视觉模型到现代多模态模型(如CLIP、ViLT)的演变过程,重点分析了Transformer架构在其中的关键应用。
LLM的技术底座:Transformer架构
本文深入解析了 Transformer 架构的核心组成与工作流程,重点介绍了其内部机制,包括自注意力、多头机制、位置编码、前馈网络等关键模块,并详细剖析了 Decoder 的结构与运行方式。
LLM的魔法揭秘:神经网络
神经网络的原理:神经元模型、单层神经网络、多层神经网络、深层神经网络; 机器学习:损失函数、梯度下降+反向传播 LLM中的神经网络;
LLM 是怎么练成的:语言模型训练范式
大语言模型的训练过程: 预训练:学习海量文本数据,掌握语言的基本结构与语义; 监督微调(SFT):利用标注数据集使模型理解并执行特定指令; 强化学习(RLHF):让模型懂人类偏好,输出高质量回答