首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Lamorak
掘友等级
学生
|
USTC
尝试并努力去做一个更好的DataScience相关工作者,喜欢跑步,积极生活
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
226
文章 206
沸点 20
赞
226
返回
|
搜索文章
最新
热门
遗憾界——《机器学习理论导引》第八章学习笔记(上)
之前一直在忙着做自己的工作,所以过去的两个月中的时间并没有对于博客进行更新。正巧现在终于和之前的工作暂时告一段落,便在自己给自己的几天假期中更新下博客,争取尽快把这个板块更新完。
PAIR 论文阅读
0.论文信息 文章概述 本文详细讨论了 IRM 在实践中的缺点,并从多目标优化 (Multi-Objective Optimization,MOO) 的角度出发,来缓解 IRM 优化的问题。
DecAug 论文阅读
0.论文信息 文章概述 这篇论文主要讨论了一种新的方法,名为DecAug,它通过分解特征表示和语义增强来实现对分布偏移的泛化。具体来说,DecAug首先将输入数据的高级表示分解为两种类型的特征:类
收敛率——《机器学习理论导引》第七章学习笔记(下)
0 感言 感觉这章整体而言自己理解得并不充分,更多像是把周老师的教材进行打印,之后有时间我会重新进行整理的。 7.3 随机优化 7.3.1 凸函数 下给出随机优化的代表性算法——随机梯度下降法
收敛率——《机器学习理论导引》第七章学习笔记(上)
0 感言 最近一直在跑自己的代码,距离上次三月多努力投稿水博客混毛毯已经过去了快两个月的时间了,最近抽空把机器学习理论再更新一章。 收敛率在我看来也是很重要的一个概念,它可以帮助我们更好的理解
Domain Generalization without Excess Empirical Risk 论文阅读
0.论文信息 文章概述 这篇论文主要研究了域泛化问题 (Domain Generalization),即如何在训练集和测试集的分布不同的情况下,训练出具有良好泛化性能的模型。为了解决这个问题,作者
Logisitc 回归模型及其数学性质学习札记
本文正在参加 人工智能创作者扶持计划 0.动机 感觉最近是一段拨乱反正的时间段 : 想要更深入理论更好地了解之前很多看论文时没有细看的数学推导和数学证明 (感觉想要真正做出好的工作的前提之一是对于
重读 DaNN 论文,深刻理解 GRL 的思想内涵
本文正在参加 人工智能创作者扶持计划 0.论文信息 这篇论文大概是我在两年前多读过的第一篇关于 Domain Adaptation 的论文,当时我还是一个小白 (现在是大白),对于 Domain
从熵和损失函数到变分推断
0.动机 一直以来看了很多工作,感觉都用到了比较多的数学处理,其中,熵和变分推断往往是我比较难理解的一部分。我也尝试过看一些相关的资料,但是总感觉这部分内容还是需要有一些实践和手推才能刚好理解 (
一致性 ——《机器学习理论导引》第六章学习笔记(下)
6.3 划分机制 一些机器学习方法可看作是将样本空间𝒳划分成多个互不相容的区域,然后在各区域中对正例和反例分别计数,以多数的类别作为区域中样本的标记,这被称为划分机制。常见的基于划分机制的机器学习
下一页
个人成就
文章被点赞
358
文章被阅读
30,262
掘力值
1,666
关注了
10
关注者
31
收藏集
0
关注标签
9
加入于
2022-03-24