首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
深度学习-图像
订阅
张喇嘛
更多收藏集
微信扫码分享
微信
新浪微博
QQ
6篇文章 · 0订阅
神经网络碰上高斯过程,DeepMind论文开启深度学习新方向
选自arXiv,机器之心编译。 函数近似是机器学习众多问题的核心,而过去深度神经网络凭借其「万能近似」的属性在函数近似方面无与伦比。在高级层面,神经网络可以构成黑箱函数近似器,它会学习如何根据大量训练数据点来参数化单个函数。 除了使用神经网络这种参数化的方法逼近一个函数,我们还…
preprint版本 | 何凯明大神新作MAE | CVPR2022最佳论文候选
文章转自:微信公众号【机器学习炼丹术】 笔记作者:炼丹兄(已授权转载) 联系方式:微信cyx645016617 论文题目:“Masked Autoencoders Are Scalable Visio
循环神经网络RNN、LSTM、GRU原理详解
一、写在前面 这部分内容应该算是近几年发展中最基础的部分了,但是发现自己忘得差不多了,很多细节记得不是很清楚了,故写这篇博客,也希望能够用更简单清晰的思路来把这部分内容说清楚,以此能够帮助更多的朋友,
解读:Informer——比Transformer更有效的长时间序列预测方法
下面这篇文章的内容主要是来自发表于AAAI21的一篇最佳论文《Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting》。这篇文章针对Transformer存在的一系列问题,如...
浅谈多目标优化
「这是我参与2022首次更文挑战的第15天,活动详情查看:2022首次更文挑战」 前言 这个主要是结合我目前的看法来简单地说一说这个多目标优化的一个问题,这个不管是在在校的数学建模比赛过程当中或者是在
关于 PyTorch 一些你需要了解的小技巧
今天来聊一聊关于 PyTorch 使用中的一些小技巧,其中可能已经接触过,或者没有接触过。如果这些小技巧对于使用或者学习 Pytorch 有所帮助,还希望您给点个赞,表示对我分享的肯定。