首页
AI Coding
AIDP
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
ChenYYY
掘友等级
学生
不积小流,无以成江河。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
9
文章 9
沸点 0
赞
9
返回
|
搜索文章
赞
文章( 9 )
沸点( 0 )
sememes的潜在空间思考
核心问题 找到可以在文本特征的latent space中得到解释的direction 针对图像潜在空间解释的现有方法 监督 简单的分类器、SVM向量机等。 文章: Semantic Hierarchy
正交约束
摘要 什么是正交约束 在训练过程中通过约束来鼓励或强制参数矩阵保持正交。 正交约束的作用 常用于解决梯度消失或爆炸等问题。 特征解耦。 论文主要解决问题 优化训练过程中的收敛性、速度和稳定性,同时保证
强化学习-学习笔记
强化学习的场景 一个agent,观察环境(输入s),做出行动(输出action),环境根据行动,选择奖惩(reward)和返回新的状态(st+1)给agent。 几种类别 Policy-based 通
Semantic factorization 调研
Semantic Hierarchy Emerges in Deep Generative Representations for Scene Synthesis 背景 首先是背景,背景就是 GAN
CONTROLLING GENERATIVE MODELS WITH CONTINUOUS FACTORS OF VARIATIONS
背景概要 latent space 隐空间 可以理解成对数据降维后的表示,这种降维压缩只保留较为关键的特征点而忽略一些不重要的信息。 在卷积网络中,降采样后的矩阵就可以视为latent space;在
Closed-Form Factorization of Latent Semantics in GANs
背景 Gan中有很多语义属性等待我们去发掘和解释。 动机 过去有监督的方法(比如分类器)需要对属性有标准的定义,但是有一些属性不能清晰地被定义(打标签),比如发型、肤质、朝向、形状... 需要对目标属
智能标注-交互式标注
主动学习 将数据标注过程呈现为学习算法和用户之间的交互。其中,算法负责挑选对训练AI模型价值更高的样本,而用户则标注那些挑选出来的样本 也就是,通过机器学习方法获取到那些比较“难”分类的样本数据,让人
Latent Space理解
隐空间 隐空间可以理解成对数据的压缩后的表示,这种压缩只保留较为关键的特征点而忽略一些不重要的信息。以编码器-解码器网络为例,首先使用全卷积神经网(FCN)络学习图片特征,我们将特征提取中对数据的降维
LANGUAGE MODELS ARE OPEN KNOWLEDGE GRAPHS
主要贡献 展示了如何使用预训练模型构建知识图谱,即仅需要将清洗后的文本喂给模型(不需要微调),优于传统手动标注和抽取的思路。 是一种方便高效的无监督方法。 构建了一种新的知识图谱类型,将人类已标注的现
个人成就
文章被点赞
28
文章被阅读
12,635
掘力值
326
关注了
1
关注者
1
收藏集
0
关注标签
0
加入于
2019-10-02