首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
CV技术指南
掘友等级
微信公众号--CV技术指南
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
ICLR 2025|如何在ImageNet-1K上训练视觉基础模型?
仅在ImageNet-1K的1.2M图像上训练就可以在多项任务上达到跟别人所提供的预训练模型相当的性能。
ICLR 2025 | 精度近乎无损!首个Mamba系列模型量化方案MambaQuant
本文提出了 MambaQuant,这是一种训练后量化(PTQ)框架。该工作对 transformer-based LLM 模型的量化也有很大提升
ICLR 2025 | 无需训练的Token级 DiT加速方法
本文提出的 ToCa 模型通过 token 粒度的缓存方法,实现了图像和视频生成模型上无需训练的两倍以上的加速。
DeepSeek满血版「火」到微信!国民级应用加持,AI搜索要变天?
微信也接入满血版DeepSeek R1了!一些被灰度到的网友纷纷开启测评,不仅有思考链,还有参考资料。
ICLR 2025 | 计算量仅DiT的一半!一个模型架构搞定T2X任务
来自中山大学和360 AI Research的研究人员基于Proxy token提出了一种高效的Diffusion Transformer 即PT-DiT, 能够适用于文本生成图像、视频等多种生成任务
比知识蒸馏好用,田渊栋等提出连续概念混合,再度革新Transformer预训练框架
本文,来自 Meta 等机构的研究者提出了一种新颖且高效的预训练框架:连续概念混合(Continuous Concept Mixing,),其将离散的下一个 token 预测与连续概念相结合。
顶刊TPAMI 2025 | 北大、KAUST、字节联合提出“可逆扩散模型”赋能图像重建,代码已开源!
本篇分享 TPAMI 2025 论文Invertible Diffusion Models for Compressed Sensing,北大、KAUST、字节联合提出“可逆扩散模型”赋能图像重建。
ICLR 2025 | 精度近乎无损!首个Mamba系列模型量化方案MambaQuant
本文提出了 MambaQuant,这是一种训练后量化(PTQ)框架,包含:1)基于 Karhunen-Loève 变换(KLT)的增强旋转;2)平滑融合旋转,用于均衡通道方差。
新突破!上海交大重磅新作LIMO:挑战RL Scaling范式
来自上海交通大学的最新研究却给出一个令人震惊的答案:仅需 817 条精心设计的样本,就能让模型在数学竞赛级别的题目上超越当前许多最先进模型,这一发现不仅挑战了传统认知,更揭示了一个可能被我们忽视的事。
LLM模型的通病:模型坍塌
模型坍塌是指生成模型由于过度使用低质量数据或对类似模型的输出进行重复微调而导致性能下降的现象。本文展示了模型坍塌在不同机器学习模型中的存在及其对大型语言模型的影响。
下一页
个人成就
文章被点赞
854
文章被阅读
389,144
掘力值
13,452
关注了
0
关注者
333
收藏集
0
关注标签
10
加入于
2021-05-30