首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
大佬分享
订阅
用户6334423020532
更多收藏集
微信扫码分享
微信
新浪微博
QQ
58篇文章 · 0订阅
网络训练中使用上下文管理器 ctx 控制计算精度
本文介绍如何在网络训练中使用上下文管理器 ctx 控制计算精度,以及残差的计算和处理方式。由于这段代码较为固定,因此可以复用到其他网络的训练过程中去。
缩放器和优化器的定义
本文介绍两个在深度学习训练中非常重要的组件:GradScaler 和 优化器。它们分别用于处理混合精度训练和参数更新,是现代深度学习训练流程中不可或缺的部分。
归零模型梯度
在 PyTorch 中,optimizer.zero_grad() 是一个非常重要的方法,用于在每次反向传播之前清空(归零)模型的梯度。这行代码的作用是确保在每次更新模型参数之前,梯度不会被累加。
保存模型检查点
在训练深度学习模型的过程中,保存模型检查点是一个非常重要的步骤。它不仅可以防止训练过程中出现意外中断导致的损失,还能方便我们后续对模型进行评估和测试。
模型初始化:加载分词器和模型
在模型训练中,一般会定义一个函数 init_model,用于初始化模型和分词器。它加载了一个预训练的分词器,初始化了一个自定义的 MiniMindLM 模型,并将其移动到指定的设备上(GPU 等)
设置训练过程中的随机数种子
通过设置随机数种子,可以确保每次运行代码时,模型的初始化和训练过程都基于相同的随机数序列,从而得到一致的结果。
分布式数据加载
初始化训练数据集和数据加载器,是深度学习模型训练中的关键步骤。本文介绍与此过程息息相关的几个步骤及对应的对象和方法。
租用 GPU 训练 minimind 模型
训练 minimind 1. 选择 conda 版本的云服务器,具体配置为 2. 创建一个新的 python 环境,然后安装合适的版本 3. 将 minimind 的 requirements.txt
机器人仿真环境安装
安装环境 ubuntu=Ubuntu 20.04.6 LTS(GNU/Linux 5.15.0-107 - generic x86_64) python3=3.8.10 pip=20.0.2
Uni-App跨端开发实战:编译微信小程序跳转全平台终极指南(01)
前言 在uniApp开发过程中,对于编译后平台,页面间的跳转是非常简单的。但是一个平台跳转其他平台是需要进行额外的处理判断。为了简化代码、提高复用性,下面将介绍如何在uniApp项目中封装一个灵活且易