首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
机器学习
FavoriteStar
创建于2022-09-09
订阅专栏
机器学习的各种学习记录
等 8 人订阅
共25篇文章
创建于2022-09-09
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
【Datawhale】动手学数据分析
本文是对Datawhale的动手学数据分析课程的学习总结,记录了整体的学习过程、答案以及个人感想,代码较为详细。
【机器学习】之第十一章——特征选择与稀疏学习
本文是对于《机器学习》第十一章特征选择的学习记录,讲述了当前特征选择的大致概率和基本方法,对方法的算法过程进行了描述。
【机器学习】李宏毅——Domain Adaptation(领域自适应)
本文介绍了Domain Adaptation(领域自适应)的相关知识,包括现在出现的具体问题、问题如何解决、所面对的各种情况等等。
【机器学习】李宏毅——Explainable ML(可解释性的机器学习)
本文介绍了Explainable ML(可解释性的机器学习)的相关内容,抱愧这项技术的相关概述、当前发展等等。
【机器学习】李宏毅——Flow-based Generative Models
本文主要介绍了Flow-based Generative Models的概念,以及其内部各个模块的主要思想,可结合我之前写过的生成模型的博客共同阅读。
【机器学习】李宏毅——Unsupervised Learning
本文详细地介绍了关于非线性降维的内容,以及生成模型的相关内容,包括LLE算法、VAE算法、GAN算法等
【机器学习】李宏毅——Anomaly Detection(异常检测)
本篇文章主要介绍了Anomaly Detection(异常检测)的思路具体实现方法,以及可能在实际应用中遇到的各种情况。
【机器学习】李宏毅——AE自编码器(Auto-encoder)
本文详细地讲解了什么是AE自编码器(Auto-encoder),对其内部的原理和各种应用场景进行了叙述。
【机器学习】李宏毅——自监督式学习
本文介绍了近几年比较火热的自监督式学习,并介绍了其中最具有代表性的BERT算法和GPT算法,其中对BERT算法进行了详细叙述。
【机器学习】李宏毅——生成式对抗网络GAN
本文非常详细的介绍什么是生成式对抗网络GAN,以及GAN内部的实现原理,包括各种GAN的训练技巧和变形等等内容。
【机器学习】李宏毅——Transformer
本文详细地介绍了Transformer算法,介绍了其内部重要的Encoder和Decoder,以及具体的实现过程和原理,还介绍了其训练过程以及训练过程中应该注意的种种问题。
Graph Neural Network——图神经网络
本文简要的介绍了Graph Neural Network——图神经网络,从图的定义开始,一直到整个GNN的工作流程。
【机器学习】之第九章——聚类
本文对应周志华老师的《机器学习》第九章聚类,主要对书中的内容进行了总结,用简洁的语言进行讲解,容易理解且思路清晰,同时也会对其中的部分复杂公式的推导进行详细讲解。
【机器学习】之第八章——集成学习
本文对应周志华老师的《机器学习》第八章集成学习,主要对书中的内容进行了总结,用简洁的语言进行讲解,容易理解且思路清晰,同时也会对其中的部分复杂公式的推导进行详细讲解。
【机器学习】之第五章——神经网络
本文对应周志华老师的《机器学习》第五章神经网络内容,主要对书中的内容进行了总结,用简洁的语言进行讲解,容易理解且思路清晰,同时也会对其中的部分复杂公式的推导进行详细讲解。
【机器学习】李宏毅——Recurrent Neural Network(循环神经网络)
本文主要讲解了什么是经典的RNN——循环神经网络,以及其实现原理,同时将其进行推广,介绍了什么是双向的RNN,更主要是介绍了什么是经典的LSTM,以及其内部原理,较为详细
【机器学习】李宏毅——线性降维
本文从不同的角度入手讲解了什么是所谓的PCA降维,同时也将器思想应用到常见的图片分类问题实例之中,较为容易理解
【机器学习】李宏毅——自注意力机制(Self-attention)
本文从输入是多个向量的角度,入手介绍了什么是自注意力机制,并且也比较了CNN、RNN等与自注意力机制的异同。
【机器学习】李宏毅——卷积神经网络CNN
本文从两个角度解释了什么是经典的CNN——卷积神经网络,而且简单容易理解,并且也进行了一定程度的推广。
【机器学习】李宏毅——从逻辑回归推导出神经网络
本文跟随李宏毅老师的思路,简单地从逻辑回归一步一步经过简单的思路转换推导出神经网络的基本结构,这对于神经网络模型的理解很有帮助。
下一页