RWKV 2025 生态内容征集大赛 | 6 月投稿作品及评审结果

92 阅读3分钟

大家好,我们在 2024 年底推出了 “RWKV 2025 生态内容征集大赛”,公开征集 RWKV 相关的作品,包括但不限于 RWKV 相关的论文、讲解 RWKV 的教程,以及基于 RWKV 的应用等。

2025 年 6 月,活动共收到 RWKV 生态作品投稿 3 篇高质量论文

本文将公布 2025 年 6 月的活动投稿作品及评审结果。

评审结果

评审结果省流版

作品名称作品分类投稿人初评奖项
FEAT: Full-Dimensional Efficient Attention Transformer for Medical Video Generation论文王绘涵金奖(4888 元)
RWKVQuant: Quantizing the RWKV Family with Proxy Guided Hybrid of Scalar and Vector Quantization论文后摩智能金奖(4888 元)
VisualRWKV-HM: Enhancing linear visual-language models via hybrid mixing论文霍华德银奖(2888 元)

下面是“RWKV 2025 生态内容征集大赛” 6 月投稿获奖的作品介绍。

论文类

  • FEAT: Full-Dimensional Efficient Attention Transformer for Medical Video Generation
    • 投稿链接:github.com/Yaziwel/FEA…

    • 投稿人:王绘涵

    • 获奖类型:金奖(4888 元)

    • 项目介绍:论文基于 RWKV 模型架构中的 WKV 注意力机制,提出了 FEAT 模型,通过统一的空间-时间-通道注意力机制解决医疗视频生成中通道交互不足、计算复杂度高和去噪指导粗糙的问题。在多个数据集上实现了高效高质量的医疗视频生成。论文的工作十分出色新颖,已作为 MICCAI 2025 的 top9% 提前收录。

20250605-FEAT Full-Dimensional Efficient Attention

  • RWKVQuant: Quantizing the RWKV Family with Proxy Guided Hybrid of Scalar and Vector Quantization
    • 投稿链接:github.com/xuchen-dev/…
    • 投稿人:后摩智能
    • 获奖类型:金奖(4888 元)
    • 项目介绍:论文提出了 RWKVQuant,一种专门针对 RWKV 模型的训练后量化框架。通过结合标量量化和向量量化技术,并设计基于信息熵的代理策略与码本优化算法,该框架成功将 RWKV-14B 模型压缩至约 3 位宽,在精度损失小于 1% 的同时实现 2.14 倍加速。实验证明了该方法在语言和视觉任务上的有效性,是首个针对 RWKV 家族的完整量化解决方案。

20250502-RWKVQuant

  • VisualRWKV-HM: Enhancing linear visual-language models via hybrid mixing
    • 投稿链接:doi.org/10.1016/j.i…
    • 投稿人:霍华德
    • 获奖类型:银奖(2888 元)
    • 项目介绍:论文基于 RWKV 模型提出了 VisualRWKV-HM,这是一种具有线性复杂度的视觉语言模型,在单图像、多图像和多视图基准测试中均达到了 SOTA 性能。与基于 Transformer-Mamba 架构的混合模型 LongLLaVA 相比,它在上下文长度为 16K 时消耗的内存更少,吞吐量提高了 24%。此外,VisualRWKV-HM 具有良好的可扩展性,通过扩展状态编码器和解码器,可以进一步提高性能。论文的工作十分新颖有效,已被 JCR Q1 期刊 Information Fusion 收录。

20250606-VisualRWKV-HM

奖品/奖金发放规则

  • 实物奖品(RWKV 周边等)顺丰快递方式发出
  • 奖金转账或第三方线上平台等方式发放
  • 同一投稿作品有多位作者的情况下,由作品投稿人领取奖金,团队内部自行协商分配奖金

二次投稿与奖项升级

所有投稿作品均会获得评审意见。请根据评审意见优化你的作品,然后可再次投稿以升级奖项

奖项成功升级时,我们将补发前后两个奖金的差价。例如投稿作品从铁奖(888元)升级到银奖(2888元),则补发 2888-888=2000 元奖金。


附活动海报,欢迎各位转发!

* 本活动最终解释权归元始智能所有。