首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
因果推断+深度学习
Lamorak
创建于2022-04-07
订阅专栏
尝试在深度学习中引入因果推断的观念和部分理论,以获得更具有解释性和效果更好的模型
等 7 人订阅
共19篇文章
创建于2022-04-07
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
PAIR 论文阅读
0.论文信息 文章概述 本文详细讨论了 IRM 在实践中的缺点,并从多目标优化 (Multi-Objective Optimization,MOO) 的角度出发,来缓解 IRM 优化的问题。
Invariant Rationalization 论文阅读
0 论文信息 1 背景介绍 简而言之就是在 IRM 的基本框架下,我们的目标是设计一个接近于发现因果特征的合理化标准。虽然评估因果关系具有挑战性,但我们可以通过搜索在某种意义上不变的特征来近似完成
The Risks of Invariant Risk Minimization 论文阅读
1 背景介绍 在本工作中,我们在一个相当自然和一般的模型下,对 IRM 目标下的分类进行了第一次形式化分析,该模型仔细地形式化了原始工作背后的直觉。我们的结果表明,尽管受到不变预测的
反事实 ——《统计因果推理入门》第四章学习笔记
4 反事实及其应用 4.1 反事实 这种 “如果” 陈述,其中 “如果” 部分是不真实的或未实现的,被称为反事实陈述。反事实的 “如果” 部分被称为假设条件,或者更多的时候,被称为先行词。
干预 ——《统计因果推理入门》第三章学习笔记
3 干预的效果 3.1 干预 正如你无疑在统计学课上多次听到的那样,“相关性不是因果关系”。仅仅是两个变量之间的关联并不一定或通常意味着其中一个变量导致了另一个变量。因此,随机对照实验被认为是统计
图模型 ——《统计因果推理入门》第二章学习笔记
2 图模型及其应用 2.1 模型与数据的联系 我们可以仅仅根据图模型的结构就能预测数据中的独立性质,而不需要依赖方程式或误差分布所携带的任何定量信息。
绪论 ——《统计因果推理入门》第一章学习笔记
0 感言 其实之前入门的时候找的因果相关的书籍是《Causal Inference : What If》这本书,在学期开始之前也做过一章的读书笔记,但是往后读发现还是偏向于公共卫生以及医学统计,所
Bayesian Invariant Risk Minimization 论文阅读
0 论文信息 1 背景介绍 分布迁移下的泛化是机器学习的一个公开挑战。不变风险最小化 (IRM) 是通过提取不变特征来解决这一问题的一个很有前途的框架。
Invariant Risk Minimization 论文阅读
本文引入了不变风险最小化的方法 (IRM),作为一种学习范例,用于估计多个分布之间的不变相关性。为了实现这一目标,不变风险最小化学习了一种数据的表达,使得在这种数据表达之上的最优分类
因果机器学习调研综述(引用下)
之前零零散散找了些论文,但总感觉不够体系化,而且虽然都是使用因果推断,但是实际上大家使用的领域和具体使用的方法也不尽相同 (毕竟本身因果推断也都有很多流派)。
因果机器学习调研综述(引用上)
之前零零散散找了些论文,但总感觉不够体系化,而且虽然都是使用因果推断,但是实际上大家使用的领域和具体使用的方法也不尽相同 (毕竟本身因果推断也都有很多流派)。
因果机器学习调研综述(下)
之前零零散散找了些论文,但总感觉不够体系化,而且虽然都是使用因果推断,但是实际上大家使用的领域和具体使用的方法也不尽相同 (毕竟本身因果推断也都有很多流派)。
因果机器学习调研综述(中)
之前零零散散找了些论文,但总感觉不够体系化,而且虽然都是使用因果推断,但是实际上大家使用的领域和具体使用的方法也不尽相同 (毕竟本身因果推断也都有很多流派)。
因果机器学习调研综述(上)
之前零零散散找了些论文,但总感觉不够体系化,而且虽然都是使用因果推断,但是实际上大家使用的领域和具体使用的方法也不尽相同 (毕竟本身因果推断也都有很多流派)。
Causal Shapley Values 论文阅读
0.论文信息和个人感言 这篇论文是老师给推荐读的,在阅读之前我对于 Shapley 值进行了大概的了解,感觉还是很有意思的,但是论文实在看得半生不熟,很多细节都存疑,所以先做了简单大概的翻译放上
Towards Unsupervised Domain Generalization 论文阅读
0.论文信息 1.文章提出的背景 传统的域泛化方法都需要标签,而自监督学习中的对比学习不能很好地处理域泛化的情况。 2.文章中使用的方法 2.1 无监督的域泛化 令 $\mathcal{X}$ 为特征
《因果推断:如果》第一章学习笔记
最近好忙,需要看的东西好多,真的有点烦,在同时需要看很多书的时候也许换着看换着写是一种好的提升看书效率的方法,所以也开始更Causal Inferences: What if这本书
Deep Stable Learning for Out-Of-Distribution Generalization 论文阅读
传统深度学习模型在源域与目标域不同时(即Out-Of-Distribution问题)学习效率不太行,是因为在分布中具有虚假的相关性,比如上图中的狗和水。
崔鹏老师Nature上关于StableLearning阐述论文的阅读
最开始看到这篇文章还是十分惊喜,崔老师自己深耕多年的Stable Learning在影响因子超过15的Nature上进行了发表,然后具体看这篇文章的时候就有些摸不到头脑