首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
AI小精灵
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
黎曼猜想为何这样难证?幻想的证明思路以及Atiyah论文
在Atiyah大新闻前夕,把从前的这个草稿写完吧。本文的标题是许多学数学的同学会问过的问题。如果能真正回答这个问题,就离解决RH不远,所以这个问题很难回答。这里是从前的一点想法,请专家指正(没接触过这些的朋友可以看最后面,有个小问题是容易懂的)。 其中gamma是Euler常数…
TVGAN 的训练,BigGAN,与 InfoGAN 的最新进展,GAN 是否已接近最终形式?
标题图来自下文的 ProInfoGAN,在 CelebA-HQ 上无监督发现高质量 disentangled 编码。 我在几天前介绍了一个很简单的“TVGAN”,很奇怪的是,为什么这么简单的事情,之前没人明确去用。 今天细看 BigGAN 才发现,原来 Google 的这篇 S…
DGN:生成模型,可以有多简单?目前的深度学习研究,有什么问题?思考DL的理论细节 (3)
在本系列的 (2),介绍了一种极其简单的生成模型。 在本文中,我们先不考虑它的复杂化。我们考虑能不能更简单,简单的极限到底在哪里。 Deep Image Prior 说的事情,从实验的角度看很简单。但是,从理论的角度看,比“分布的积分”复杂得多,所以还没见过有谁去理论分析。 大…
我的数学笔记(Chapter 4-5. 代数几何和分析的基础)
这是从前写的用于备忘的数学笔记,在此连载分享给大家。 如果觉得好,请点个赞。现在知乎上高赞的是什么大家都知道,如果你希望能够缓解一下知乎的堕落趋势,请给本文点赞。点赞多了就放 PDF 😅 这个笔记的特点是比较实用,具体计算了一些具启发性的初等问题(且其中某些问题在教科书中较为…
从Gauss Sum到Kronecker-Weber (1) 解3和4次方程
定期写点数学。类域论的中心定理Kronecker-Weber,是说abelian extension可嵌入cyclotomic extension,但没给出具体嵌入。其实,可具体研究。Kronecker-Weber可从Stickelberger证,Stickelberger可从…
我在知乎的回答&文章整理:AI/编程/金融/八卦篇
首先正在做一个项目,希望能让大家更容易地了解和使用DL的前沿进展。之前的雏形见: 然后是今年5月出版的一本深度学习入门书,全彩印刷,几百张彩图,喜欢看彩图的同学欢迎看看。淘宝卖书需要许可证,所以刚刚新开了一个图书店,欢迎光临~ : PENG Bo:《深度卷积网络:从AlphaG…
Rethink Generative Model:生成模型的误区?思考DL的理论细节 (4)
图像的生成模型,或者说图像模型(与语言模型相对应),是图像无监督学习的核心(可以以此解决一切逆问题,如超分辨率,降噪,inpaint,等等),也是图像有监督学习的重要基础。 本系列的最终目的,在于希望提出一种稳定,可解释,每一步都具有【数学和物理基础】的生成模型训练体系(包括网…
MLE, Bayes, 生成模型:思考DL的理论细节 (1)
1. 简单回顾 MLE 让我们从最大似然估计(MLE)说起。 令样本为 ,我们希望用 模型拟合样本的分布。这里 是模型的参数。 其中最大化的,无疑就是负交叉熵损失。 2. MLE 的问题,与 Bayes 估计 到此似乎是最基础的知识。但依我说,MLE 的优化目标,到此可能已经错…
Windows装TensorFlow+MXNet+PyTorch
更新下目前的 win10 深度学习 GPU 环境搭建推荐实践(CUDA9.2 + cuDNN7.2)。现在安装都非常方便了,Python 可以全部用 3.6 版本。推荐还没有玩过深度学习的朋友都可以试试了。 1. 装 CUDA 2. 装 Python 装 Miniconda,比…
TVGAN(迄今为止最简单的新GAN):思考DL的理论细节 (2)
在本文中,我们提出一种可能是迄今为止最简单的新 GAN,称为 TVGAN。 其实不能说是提出,因为太简单了,应该说是,“介绍一个大家都应该知道的东西”。 由于它是如此简单,我非常奇怪为何似乎没有人提出过。 1. 理论 TV 的性质很好。它特别简单,对称,而且永远有效,不会坍塌,…
下一页
个人成就
文章被点赞
4
文章被阅读
22,481
掘力值
392
关注了
0
关注者
791
收藏集
0
关注标签
0
加入于
2018-10-26