首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
好评笔记
掘友等级
公众号:Goodnote。好评笔记,记录一些好玩的计算机笔记,目前更新人工智能基础课程《机器学习》、《深度学习》相关的课程知识。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 0
沸点 1
赞
1
返回
|
搜索文章
最新
热门
深度学习笔记——生成对抗网络GAN
本文详细介绍早期生成式AI的代表性模型:生成对抗网络GAN,由 Ian Goodfellow 等人于 2014 年提出。
深度学习笔记——AE、VAE
本笔记介绍深度学习中两个重要的模型:AE、VAE。自编码器(Autoencoder, AE) 论文: 无标志性论文,最初可以追溯到20世纪80年代和90年代初的神经网络研究。
多模态论文解读——CLIP、BLIP
本文详细介绍这几年AIGC火爆的隐藏功臣,多模态模型:CLIP、BLIP。CLIP(Contrastive Language-Image Pre-training)
多模态论文解读——DiT(Diffusion Transformer)
本文详细介绍Transformer架构图像生成方面的应用,将Diffusion和Transformer结合起来的模型:DiT。目前DiT已经成为了AIGC时代的新宠儿,视频和图像生成不可缺少的一部分。
多模态论文解读——ViT、ViLT
本文详细介绍Transformer架构在计算机视觉方面的成功模型,将Transformer引入图像领域:ViT、ViLT。
深度学习笔记——GPT、BERT、T5
本文详细介绍了三种最火热的基于Transformer架构的NLP模型架构:GPT、BERT 和 T5。
深度学习笔记——常见的Transformer位置编码
介绍3种常见的Transformer位置编码——正弦/余弦位置编码(sin/cos)、基于频率的二维位置编码(2D Frequency Embeddings)、旋转式位置编码(RoPE)
深度学习笔记——Transformer
本文详细介绍面试过程中可能遇到的Transformer。Transformer 是一种革命性的神经网络架构,最早由 Vaswani 等人在 2017 年提出,它彻底改变了自然语言处理(NLP)的领域。
深度学习笔记——循环神经网络RNN、LSTM、GRU、Bi-RNN
文本特征提取的方法 1. 基础方法 1.1 词袋模型(Bag of Words, BOW) 词袋模型最简单的方法。它将文本表示为一个词频向量,不考虑词语的顺序或上下文关系,只统计每个词在文本中出现的频
深度学习笔记——卷积神经网络CNN
卷积神经网络 (CNN) 是一种专门用于处理图像、视频等数据的深度学习模型,主要用于计算机视觉任务,例如图像分类、目标检测和图像生成。CNN 通过卷积操作减少输入数据的尺寸,提取出重要特
下一页
个人成就
文章被点赞
5
文章被阅读
11,769
掘力值
508
关注了
0
关注者
14
收藏集
0
关注标签
6
加入于
2024-11-29