脑波转文字!耶鲁领衔三校打造MindLLM:你的想法AI秒解码

109 阅读2分钟

想象一下,当你凝视一幅画时,AI能瞬间将你脑中的赞叹转化为诗意的文字;当失语者努力发出一个音节,AI能精准捕捉其脑内汹涌的思绪——这并非科幻剧情,而是耶鲁大学、剑桥大学与达特茅斯学院联合发布的MindLLM模型正在实现的未来图景。

image.png

长久以来,将功能性磁共振成像(fMRI)的脑信号转化为可读文本,堪称神经科学领域的“终极挑战”。传统技术如同“盲人摸象”:要么依赖固定主题的猜测,效果堪比“看图说话”;要么局限于单一受试者,换个人就“水土不服”。而MindLLM的横空出世,彻底打破了这些桎梏。它如同一位精通多国语言的“脑电翻译官”,不仅能跨个体解读脑信号,还能应对开放主题,甚至实时适应全新任务!

背后的“黑科技”源自两大核心设计:其一是主题无关的fMRI编码器,它像经验老道的侦探,从海量脑信号中精准提取跨人群通用的语义特征;其二是 大型语言模型(LLM) 的加持,将抽象特征转化为连贯语句,如同为脑电波配上了“字幕”。更关键的是,团队独创的大脑指令调优(BIT)技术,通过图像作为“中介”,让模型学习感知、记忆、推理等多元任务,最终练就“见招拆招”的脑信号解码绝技。

image.png

实测数据令人震撼:在文本解码精准度上,MindLLM较传统模型提升12.0%;面对陌生受试者的脑信号,泛化能力飙升16.4%;即使遭遇全新任务,适应速度也暴增25.0%!这意味着,无论是帮助渐冻症患者“无声呐喊”,还是让普通人用意念操控智能假肢,MindLLM都能游刃有余。

未来,这项技术或将重塑医疗与交互范式:失语者有望通过脑信号直接“说话”;脑机接口可能让“意念打字”比键盘输入更流畅;甚至抑郁症患者的情绪波动,也能被提前捕捉并干预。当然,挑战依然存在——目前的模型仍需依赖静态fMRI数据,但团队已瞄准实时解码的终极目标。

或许不久的将来,情侣吵架会新增一个环节:“你刚才脑补的‘我错了’明明带着感叹号!你的BIT参数需要重新校准!”而打工人最担心的可能是:老板给电脑装了MindLLM插件,从此“正在思考”的摸鱼状态将无处遁形……


如果觉得有用,不妨点击右下角【点赞、转发、推荐】一键三连,您的支持是我们前进的动力。想第一时间获得最新AI资讯,请星标⭐⭐⭐,谢谢