首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
AIoT空间
掘友等级
自然语言处理工程师
|
顺丰科技有限公司
一枚 AI 算法工程师
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
6
文章 6
沸点 0
赞
6
返回
|
搜索文章
赞
文章( 6 )
沸点( 0 )
深度学习模型部署 - Triton 篇
Triton Server Triton Server 是 NVIDIA 推出的一个用于机器学习模型部署的开源平台,它支持 TensorFlow、PyTorch、ONNX 等多种模型格式。
深度学习模型训练中的重要技巧 warm up
深度学习模型训练中 warm up 的重要性 深度学习模型在训练时需要进行一定的warm up操作,这个操作被广泛认为是非常重要的。在本文中,我们将深入探讨warm up的原理、适用场景和局限性,以及
Ray Tune & Optuna 自动化调参(以 BERT 为例)
BERT 可微调参数和调参技巧: 学习率调整:可以使用学习率衰减策略,如余弦退火、多项式退火等,或者使用学习率自适应算法,如Adam、Adagrad等。 批量大小调整:批量大小的选择会影响模型的训练速
ChatGPT 背后的“功臣”——RLHF 技术详解
ChatGPT 背后的“功臣”——RLHF 技术详解 OpenAI 推出的 ChatGPT 对话模型掀起了新的 AI 热潮,它面对多种多样的问题对答如流,似乎已经打破了机器和人的边界。这一工作的背后是
如何在一张 24 GB 的消费级显卡上用 RLHF 微调 20B LLMs
在一张 24 GB 的消费级显卡上用 RLHF 微调 20B LLMs https://huggingface.co/blog/zh/trl-peft 我们很高兴正式发布 trl 与 peft 的集成
PEFT:在低资源硬件上对十亿规模模型进行参数高效微调
🤗 PEFT:在低资源硬件上对十亿规模模型进行参数高效微调 https://huggingface.co/blog/zh/peft 基于 Transformers 架构的大型语言模型 (LLM),如
个人成就
文章被点赞
22
文章被阅读
15,710
掘力值
428
关注了
0
关注者
9
收藏集
0
关注标签
5
加入于
2023-04-13