首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
PyTorch
Rovy
创建于2022-10-12
订阅专栏
记录PyTorch相关的代码
暂无订阅
共6篇文章
创建于2022-10-12
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
Softmax and CrossEntropy
(未完) import torch import torch.nn as nn import numpy as np def softmax(x): return np.exp(x) / n
李宏毅HW1
收获(源于学长代码讲解) 打断点 之前也知道程序要打断点,就比如刷力扣的题目。不过对于深度学习就没有想起来打断点的习惯。一个特别大的好处是打断点之后,就可以清晰地知道各个变量的数据类型,和具体的情况,
dataset and transform
Transforms can be applied to PIL images, tensors, ndarrays, or custom data during creation of the Da
dataset and dataloader
--- highlight: a11y-dark --- ``` import torch import torchvision from torch.utils.data import Datase
线性回归和逻辑回归代码
--- highlight: a11y-light --- ```python import torch import torch.nn as nn import numpy as np from s
PyTorch代码之用numpy数组模拟线性回归
``` # gradient_numpy.py import numpy as np # prepare for data X = np.array([1, 2, 3, 4], dtype=np.fl