YOLOE-26发布:能听懂人话的实时开放词汇分割模型来了!

0 阅读6分钟

在计算机视觉领域,YOLO系列一直是速度和精度的代名词。但长期以来,所有YOLO模型都存在一个根本性限制:它们只能识别训练时见过的类别。

当面对新的物体类型——比如特殊的工业零件、罕见的植物病害或是特定品牌的商品——传统的解决方案需要重新标注数据并经历漫长的重新训练过程。

当YOLO26遇上YOLOE:一次完美的技术嫁接

康奈尔大学的研究团队近日发布了 YOLOE-26,这是一个将 YOLO26 的极致效率与 YOLOE 的开放词汇能力相结合的创新框架。

名称中的“26”代表它继承了 2025 年发布的 YOLO26 的端到端无 NMS 设计,而“E”取自 YOLOE 范式的“Everything”,寓意 “万物皆可识别”

图片1.png

重要提醒: 从学术角度看,这项工作是 YOLOv26 架构与 YOLOE 范式的整合,而非完全从零开始的创新。但这正是它的实用价值所在——提供了学术界先进理念在工业界可直接使用的版本。

论文地址: arxiv.org/abs/2602.00…

****代码仓库: github.com/ultralytics…

为什么YOLOE-26如此重要?

从“闭词汇”到“开放词汇”的跨越

传统的视觉识别系统是“闭词汇”的——模型只能识别训练数据中出现过的固定类别集合。这种限制在动态变化的世界中显得尤为局促。

YOLOE-26 实现了开放词汇识别,意味着:

  • 文字指令识别: 用自然语言描述你想找的目标
  • 视觉示例匹配: 给一张参考图,找到相似的物体
  • 灵活更换识别清单: 无需重新训练,实时切换识别任务

现有的开放词汇模型(如 Grounding DINO或SAM)通常依赖庞大的 Transformer 架构,难以在边缘设备上实现实时推理。

YOLOE-26****的核心目标很明确: 在保留YOLO26极致速度的同时,赋予它语义理解能力。

图片2.png

图片3.png

核心技术揭秘:如何实现零开销语义对齐?

图片4.png

  • 统一对象嵌入空间

这是 YOLOE-26 的灵魂所在。研究团队将所有视觉特征编码为统一的嵌入向量空间,无论是文字描述、视觉示例还是内置词汇表,都映射到同一空间中。

分类过程简化为相似度匹配: 类别 = argmax(视觉嵌入·提示嵌入)

这种设计实现了视觉感知与语义标签的解耦,让模型在推理时可以随时更换识别清单,无需重新训练。

图片5.png

  • 重参数化区域-文本对齐(RepRTA)

为了让模型理解文字指令,传统方法需要复杂的交叉注意力机制,这必然拖慢推理速度。

YOLOE-26 采用 RepRTA 技术

  • 训练阶段: 使用轻量级辅助网络对齐文本和图像
  • 推理阶段: 辅助网络被“折叠”进卷积核中,实现零额外开销的跨模态理解:模型依然运行纯粹的卷积指令,却具备了理解自然语言的能力。
  • 语义激活视觉提示编码器(SAVPE)

如果你不想打字,只想让模型“找和这个相似的物体”,SAVPE 就派上用场了。

这个轻量级编码器能将用户点击或框选的示例图快速转化为视觉提示嵌入,相比传统视觉 Transformer,极大节省了显存和计算资源

训练策略:数据与算法的精妙结合

  • 多源异构数据训练

要让模型具备“万物识别”能力,海量数据必不可少。YOLOE-26 在多个大型数据集上进行联合训练:

  • Objects365: 大规模通用物体检测,夯实定位基础
  • GQA: 视觉问答与定位,增强语义理解
  • Flickr30k: 短语定位数据,提升细粒度识别能力
  • 伪掩码生成技术

高质量分割数据稀缺且昂贵。研究团队利用 SAM 等强大模型为检测框生成伪掩码,经过精细过滤和平滑处理后,在没有人工标注的情况下训练出了强大的分割头。

  • 多任务损失优化

系统同时优化三项损失:

  • 基于嵌入的分类损失(BCE)
  • 边界框回归损失(IoU系列)
  • 掩码分割损失

这种平衡确保模型既能准确识别“是什么”,也能精确标出“在哪里”。

性能表现:不仅全面,而且高效

YOLOE-26 提供了从Nano到Extra Large五种尺寸的预训练模型,适应从手机到服务器的不同算力需求。

图片6.png

  • 文本提示性能

最强的 YOLOE-26x-seg 在 640×640 分辨率下,文本提示的 mAP 达到 39.5,展现了出色的语言理解能力。

  • 视觉提示性能

给定参考图的情况下,其 mAP 达到 36.2,证明了视觉示例匹配的有效性。

  • 无提示自主发现

在没有任何输入提示的情况下,依靠内置的 4585 个类别词汇表,模型依然能实现 29.9 的 mAP。这对于自动化场景(如无人机巡检、监控分析)极具价值。

图片7.png

实战演示:几行代码即可上手

YOLOE-26 深度集成在 Ultralytics 生态中,使用体验与 YOLOv8/YOLO11 高度一致。

视觉提示推理示例

图片8.png

应用场景展望

YOLOE-26 的开放词汇能力开启了无数新的应用可能:

  • 工业检测

识别训练数据中未出现的新型缺陷

根据文字描述定位特定组件

  • 零售与电商

无需重新训练,识别新上架商品

根据顾客描述查找商品

  • 智慧农业

识别新型病害或虫害

根据示例图定位特定生长阶段的作物

  • 安防监控

用自然语言描述搜索目标人物或物品

快速适应新的监控需求

图片9.png

写在最后

YOLOE-26 代表着目标检测与分割领域的一个重要转折点:从“固定类别识别”迈向“开放世界理解”。

虽然论文中因训练数据配置不同,未与原版 YOLOE 进行直接比较,但它的实用价值不容忽视——为工业界提供了一个既高效又灵活的实时开放词汇解决方案。

技术民主化的进程正在加速:曾经需要复杂系统和大量计算资源的开放词汇能力,现在可以通过几行代码在边缘设备上运行。

对于那些需要在动态环境中部署视觉识别系统的开发者来说,YOLOE-26 无疑是一个值得深入探索的选项。

随着技术的不断演进,我们距离“让计算机像人一样看见和理解世界”的目标又近了一步。