重磅!Meta开源通用神经输入系统!人人可用的非侵入式手环登场

104 阅读3分钟

未来的人机交互,不再是手机、键盘或语音助手的堆砌,而是一种几乎“隐形”的体验—极其自然、可靠、且保护隐私。真正理想的系统,应该让我们在现实世界中保持“在场感”,就像和朋友说句话、抬手做个动作那么自然。这需要两项关键技术突破:一是具备上下文感知能力的 AI,能理解你的意图和环境;二是一种几乎无感的输入方式,让你与系统交流无需多余动作,我们称之为“超低摩擦输入”。(链接在文章底部)

虽然这样的终极形态仍需数年发展,但我们已经能看到下一个阶段的轮廓—基于手腕的输入技术,结合早期可用的上下文感知 AI,为我们带来贴近未来的交互体验。为什么是手腕?原因很简单。相比语音,它更私密、不受环境噪音干扰;相比手机,它无需额外设备或手持操作;而相比摄像头手势,它无需在空中做夸张动作。手腕不仅是佩戴手表的自然位置,而且距离我们控制世界的核心工具——非常近。这种位置优势,意味着可以捕捉极其微小的动作,实现高效、直觉、全天候的控制。

愿文章 + 视频

实现手腕输入的关键技术,是EMG(肌电图) 。它通过传感器读取你大脑发出的电信号,这些信号本来是用来控制手部动作的—比如点击、滑动、打字。EMG 将这些信号转换成数字命令,让设备明白你想要做什么。最神奇的是,你甚至不需要真的动手,仅凭“意图”就能被识别。 image.png 正如 Facebook Reality Labs 的神经接口负责人 Thomas Reardon 所说:“我们不读心,而是读取你已经决定执行的动作信号。”就像你拍了很多照片,但只分享其中几张,你的手也收到了很多指令,而 EMG 正是抓住了那些你真正想执行的那部分。 image.png

最初,EMG 识别的是类似“按钮点击”的基本动作,比如拇指和食指轻捏。这些微动作在任何姿势下都能完成—站着、走着,甚至手在口袋里。你无需唤醒词、无需屏幕,系统就能捕捉到这些指令,这种“无声”的输入方式将成为AR 中首个真正普适的控制方式

愿文章 + 视频

实验显示,在不同任务场景中,该系统表现优秀:在导航任务中,用户平均每秒可选择 0.66 个目标;在离散手势任务中,每秒可识别 0.88 个手势;在手写输入中,达到了每分钟 20.9 个单词的速度。更重要的是,进一步对个体模型进行个性化微调后,打字速度还可以提升16%

愿文章 + 视频

这是目前首个能在人群中泛化、无需单独训练即可达到高精度的神经接口系统,为未来真正“隐形”的人机交互奠定了坚实基础。这或许就是未来人机交互的模样—无声、高效、自然、隐私保护

https://github.com/facebookresearch/generic-neuromotor-interface
https://www.nature.com/articles/s41586-025-09255-w

image 4 (1).png

欢迎交流~,带你学习AI,了解AI

0d3b3f2b700d62f5daf4d62e26001f3c 1.png