首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
机器学习理论
Lamorak
创建于2022-04-08
订阅专栏
在本专栏中分享一些自己学习的机器学习理论的心得
等 1 人订阅
共19篇文章
创建于2022-04-08
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
稳定性——《机器学习理论导引》第五章学习笔记
第五章我一直没有找到对应的讲解 PPT (可以复制粘贴的原材料),但是强迫症使然我必然还是会把它进行补充的 (说起来更新章节也并没有严格按照顺序来做)。感觉现阶段理解很多概念还是
遗憾界——《机器学习理论导引》第八章学习笔记(下)
8.3 赌博机在线学习 多臂赌博机 在多臂赌博机 (Multi-armed bandit) 问题中, 学习器面对 K 个摇臂。在每一轮迭代,学习器需要从 K 个摇臂中选择 1 个摇动并获得对应的奖励。
遗憾界——《机器学习理论导引》第八章学习笔记(上)
之前一直在忙着做自己的工作,所以过去的两个月中的时间并没有对于博客进行更新。正巧现在终于和之前的工作暂时告一段落,便在自己给自己的几天假期中更新下博客,争取尽快把这个板块更新完。
收敛率——《机器学习理论导引》第七章学习笔记(下)
0 感言 感觉这章整体而言自己理解得并不充分,更多像是把周老师的教材进行打印,之后有时间我会重新进行整理的。 7.3 随机优化 7.3.1 凸函数 下给出随机优化的代表性算法——随机梯度下降法
收敛率——《机器学习理论导引》第七章学习笔记(上)
0 感言 最近一直在跑自己的代码,距离上次三月多努力投稿水博客混毛毯已经过去了快两个月的时间了,最近抽空把机器学习理论再更新一章。 收敛率在我看来也是很重要的一个概念,它可以帮助我们更好的理解
Domain Generalization without Excess Empirical Risk 论文阅读
0.论文信息 文章概述 这篇论文主要研究了域泛化问题 (Domain Generalization),即如何在训练集和测试集的分布不同的情况下,训练出具有良好泛化性能的模型。为了解决这个问题,作者
Logisitc 回归模型及其数学性质学习札记
本文正在参加 人工智能创作者扶持计划 0.动机 感觉最近是一段拨乱反正的时间段 : 想要更深入理论更好地了解之前很多看论文时没有细看的数学推导和数学证明 (感觉想要真正做出好的工作的前提之一是对于
从熵和损失函数到变分推断
0.动机 一直以来看了很多工作,感觉都用到了比较多的数学处理,其中,熵和变分推断往往是我比较难理解的一部分。我也尝试过看一些相关的资料,但是总感觉这部分内容还是需要有一些实践和手推才能刚好理解 (
一致性 ——《机器学习理论导引》第六章学习笔记(下)
6.3 划分机制 一些机器学习方法可看作是将样本空间𝒳划分成多个互不相容的区域,然后在各区域中对正例和反例分别计数,以多数的类别作为区域中样本的标记,这被称为划分机制。常见的基于划分机制的机器学习
一致性 ——《机器学习理论导引》第六章学习笔记(上)
本文正在参加 人工智能创作者扶持计划 0 感言 没什么太多感言了,拔刀吧! (以及orange的主体感觉非常鲜明) 6.1 基本概念 一些标记 $$ \begin{aligned} \mathca
Style Neophile: Constantly Seeking Novel Styles for Domain Generalization 论文阅读
0 论文信息 1 背景介绍 图 1.我们方法的动机 : 我们通过自适应合成不同于源域风格和之前合成的新风格的多样的、似是而非的新风格来提高模型的泛化能力,然后在学习风格不变表示的训练中将它们注入到模型
泛化界 ——《机器学习理论导引》第四章学习笔记(下)
4.3 分析实例 理论回顾 定理3.6 $\mathbb{R}^d$ 中由非齐次线性超平面构成的假设空间 $\mathcal{H}$ 的 VC维为 d+1 定
泛化界 ——《机器学习理论导引》第四章学习笔记(中)
0 补充感言 我是真的没有想到这章的内容竟然这么多,之前 (上) 的部分其实在本地我分了两个 markdown 文件,因为单一 markdown 文件太大甚至
泛化界 ——《机器学习理论导引》第四章学习笔记(上)
0 破事水 感言 当我在完成本科毕业论文后更新完第三章的时候,我无论如何都不会想到 : 关于第四章的学习,会拖延到半年以后。这就使得事情变得有些滑稽了起来
Sharpness-Aware Minimization 相关两篇工作的简要概述
本文正在参加 人工智能创作者扶持计划 一些缘由和动机 机缘巧合之下,最近读了关于 Sharpness-Aware Minimization 的两篇文章。第一篇奠基的文章是在 ICLR 2021 上
复杂度 ——《机器学习理论导引》第三章学习笔记
代码调累了,主要还是现在没有找到合适的数据集,就让人很头大,感觉一切都像停滞了一样。希望一切好起来吧。 终于在写完论文处理完大大小小的事情后重新开始进行学习,希望能够忽略一切干扰
可学性 ——《机器学习理论导引》第二章学习笔记
进行本章时是第一次进行“可学性”理论的学习,希望自己能够理解这一概念。不过值得庆幸的是有组里学长之前PPT的帮助。 最近要开始忙毕业论文了,所以这一篇完了会咕一阵子更新第三章
预备知识 ——《机器学习理论导引》第一章学习笔记(下)
剩下一部分是最优化基础,之前运筹学中接触过一点,但是学得很不理想,重新过又是大工程,头大,慢慢看慢慢理解慢慢写。
预备知识 ——《机器学习理论导引》第一章学习笔记(上)
感言:在整理这一章时自己也是很迷茫的,感觉数学公式都看着很眼熟但是就是不会证明,以及感觉中间感觉如果按照自己这样码字下去将是一个工程量巨大的活。