首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
小菜鸡本鸡
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
4
文章 4
沸点 0
赞
4
返回
|
搜索文章
最新
热门
常见归一化方法
Min-Max Normalization 对原始数据的线性变换,使得结果值映射到[a,b]之间 $$ x_i^{\prime} = \frac{x_i - x_{min}}{x_{max} - x_
第一章
数据获取 去那里找数据集 Paper With Codes Kaggle Google Dataset Search 竞赛数据集,会议数据集 Open Data on AWS 数据集比较 生成数据 使
在Pytorch中使用Tensorboard
在Pytorch中使用可视化神器TensorBoard,极速上手,有手就行,看了就会,速成教学,十分人性。
Wasserstein距离
KL散度和JL散度 在机器学习中,常常用KL散度(Kullback-Leibler Divergence)和JL散度(Jensen-Shannon Divergence)来衡量两个分布的近似程度 KL
个人成就
文章被点赞
5
文章被阅读
9,311
掘力值
207
关注了
0
关注者
0
收藏集
0
关注标签
38
加入于
2022-01-28