首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
网络
订阅
徐无鱼
更多收藏集
微信扫码分享
微信
新浪微博
QQ
14篇文章 · 0订阅
AI产品经理必看的大模型微调劝退指南丨实战笔记
为什么没事儿不要想着微调?先来看这个金融模型case的微调用了多少数据,看完劝退啊哈哈哈。这只是量级上的吓人,况且微调对数据的要求比rag要严格式上也不能放松。
作为普通程序员,我们该如何学习大模型(LLM),学习路线和知识体系
人在不断的驱赶下依然还有新的立足之地,这些新领地恰恰是技术延展出来的百年前的纺织工人的后代并不会接着做纺织,他可能是一名铁路工人。
深入理解Transformer技术原理 | 得物技术
谷歌在2017年发布Transformer架构的论文时,论文的标题是:Attention Is All You Need。重点说明了这个架构是基于注意力机制的。
LLM中的强化学习:PPO、DPO、KTO等
LLM中的强化学习:PPO、DPO、KTO等。 为什么要用强化学习训练、强化学习算法发展脉络、常见的强化学习算法:PPO、DPO、KTO等等
机器学习|从0开始大模型之模型DPO训练
上一篇如何使用LoRA训练大模型,但是模型的效果不是很好,可以看如下对话: ... 对话的偏好不是我们想要的答案,所以需要继续微调训练,这篇文章就介绍DPO。
CV大模型系列之:打败VIT?Swin Transformer是怎么做到的
一文详细图解Swin Transformer架构,探索移动窗口attention、patch merging、patch partition等技术细节
不会 Git?Oh My Git让你边玩游戏边学会!
Oh My Git是一款开源的Git 学习游戏,用可视化方式教你搞懂 Git 的工作原理!它不是一堆文档,不是看教程视频,而是一边操作 Git,一边看到结果发生变化,边玩边学,根本停不下来。
Latent Diffusion Model是怎么完成图像快速生成的?
潜在扩散模型(Latent Diffusion Model, LDM)是一种基于深度学习的生成模型,它是在传统的扩散模型的基础上进行了改进和扩展。
对抗生成网络GAN系列——Spectral Normalization原理详解及源码解析
本文介绍了一种实现Lipschitz 连续条件的新方法——SpectralNormalization,以实现更稳定的GAN,快来看看叭🌱🌱🌱
pip命令全局设置镜像源、临时用代理上网
使用pip命令全局配置pip阿里云镜像源不用找pip配置文件路径,pip会根据当前系统的环境变量自动完成配置器通过代理临时上网:执行命令行:取消代理: