首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Mooque
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
3
文章 2
沸点 1
赞
3
返回
|
搜索文章
最新
热门
快速、通俗地理解Transformer
注意力机制 目的:为了解决“信息瓶颈”的问题 优势:生成文本时可使用整个故事的上下文(这也是 RNN、GEU、LSTM 所办不到的) 模型逐字生成文本时,它有能力引用或关注与生成单词相关的单词(模型知
相关技术总结(2020-2022)
NeRF相关技术总结 NeRF-W https://nerf-w.github.io/ (nerf在野外) 解决的问题:静态场景下的移动物体消除;不同时间(天气、光照)影响、不同
12-pytorch中内置网络模型
pytorch中内置网络模型 Docs -> torchvision -> Models and pre-trained weights MODELS AND PRE-TRAINED WEIGHTS
11-优化器的使用
优化器的使用 torch.optim How to use an optimizer To use torch.optim you have to construct an optimizer obj
10-Sequential的使用
SEQUENTIAL CLASStorch.nn.Sequential(**args: Module*)[SOURCE] CLASStorch.nn.Sequential(arg: OrderedDi
09-神经网络的层
神经网络的层 卷积层 CONV2D CLASS torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0,
08-卷积操作
卷积操作 注意官网中torch.nn和torch.nn.functional的区别: 前者是对后者的封装,更方便使用 后者用起来更加麻烦,更加细致 卷积层 Convolution Layers 注释
07-nn.Module的简单使用
神经网络的基本骨架-nn.Module 进入pytorch官网,点击Docs,选择Pytorch,左侧Python API下面点击torch.nn nn: neural network torch.n
06-DataLoader的使用
DataLoader的使用 torch.utils.data.DataLoader 形象理解: dataset:一副扑克 dataloader:抽牌方式 常用参数的通俗解释 dataset: 自定义数
05-torchvision中数据集的使用
pytorch中torchvision.datasets的使用示例,以CIFAR10数据集为例(常用于物体识别)
下一页
个人成就
文章被点赞
8
文章被阅读
2,659
掘力值
157
关注了
5
关注者
6
收藏集
0
关注标签
2
加入于
2023-10-25