首页
沸点
课程
AI Coding
数据标注
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Tarry
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
优化器与指数加权平均(EMA)学习笔记
本文记录了深度学习中常见优化方法和指数加权平均(EMA)的原理,并通过 PyTorch 示例展示参数初始化与 EMA 的实际效果
反向传播、softmax损失函数与交叉熵损失函数的简单理解
关于反向传播过程的简单理解,以及对于softmax损失函数与交叉熵损失函数的作用与求导过程的学习笔记
PyTorch 张量操作与梯度学习:从 view/reshape 到梯度下降
本文记录了 PyTorch 学习中的几个核心内容: 张量操作、张量统计、梯度计算、梯度下降、与Sigmoid 导数笔记结合
逻辑回归训练流程详解与PyTorch实现
本文整理了逻辑回归从正向传播到反向传播的完整训练流程,并结合PyTorch示例代码,说明了数据生成、标签处理、损失计算、梯度下降以及训练收敛的关键步骤,便于初学者理解与实践。
逻辑回归与感知机概念
逻辑回归本质是单层感知机,通过线性组合加激活函数实现二分类。若增加隐藏层并引入非线性变换,即形成多层感知机(MLP),是深度学习的基础,CNN、RNN、Transformer等均由此发展。
PyTorch 实现逻辑回归(二分类,Mini-Batch 梯度下降版)
本示例代码演示了如何使用 PyTorch 从零开始实现逻辑回归模型,用于二分类任务代码主要包含以下部分:参数定义、数据准备、训练过程、优化目标
逻辑回归通俗理解:从线性回归到梯度下降
本文总结了逻辑回归的核心概念和训练原理。逻辑回归虽然名字里带“回归”,本质是二分类模型,它通过线性加权和计算输入特征,并使用 Sigmoid 函数将结果映射为 0 到 1 的概率。通过交叉熵损失函数衡
个人成就
文章被阅读
590
掘力值
71
关注了
0
关注者
0
收藏集
0
关注标签
0
加入于
2025-08-30