11月13日, 在以 “效果涌现|AI in Action” 为主题的 2025 百度世界大会未来展区,百度地图与莫界携手呈现的【全场景智能眼镜导航方案】成为全场亮点。作为双方生态合作的重要成果,该方案基于百度地图核心功能,由莫界提供硬件载体,以 “语音 + 视觉” 双模态交互,将 “看见未来” 的沉浸式出行体验从概念变为可感知的实景呈现,吸引众多参会者驻足体验。
自 2025 年 4 月开启生态合作以来,百度地图与莫界聚焦 “硬件载体 + 软件能力” 的深度融合 —— 百度地图开放亿级 POI 数据库与多模态大模型能力,莫界则以极致轻量化智能眼镜作为硬件支撑,双方协同在智能眼镜导航领域实现两大关键突破:
突破一:全场景覆盖,一镜适配多元出行需求
打破传统导航 “场景单一、切换繁琐” 的局限,用户说出 “导航至机场,避开拥堵路段”,镜片即刻显示实时路况最优路线;在商圈中询问 “附近 4.5 分以上美食推荐”,周边商户信息与步行导航同步呈现;即便提出 “下午 2 点前往高铁站,中途需在商场购买咖啡” 的复杂需求,系统也能自动规划多节点路线并提示停留耗时,完美适配多元出行场景与多行程规划需求。
突破二:多模态交互,重构导航智能操作逻辑
双方在语音层面依托百度端到端语音语言大模型,120 毫秒低延迟响应复杂指令;硬件端层面基于莫界提供的智能眼镜,打通 “地图语音大模型 + 视觉大模型”,构建 “听得懂、看得清、响应快” 的交互体系:视觉层面,基于百度地图的位置服务能力,自动同步周边商场、餐厅等场所的评分、推荐菜、促销活动等信息并在镜片叠加显示,识别误差率仅 0.3%,真正实现 “用眼睛导航”。
此次成果展示,是百度地图软件能力与莫界硬件载体协同的成功实践,更以两大突破推动 AI+AR 技术在出行领域的深化落地。百度地图凭借丰富的软件生态与大模型能力,赋予硬件设备 “会思考、能交互” 的出行服务价值;莫界则以成熟的极致轻量型智能眼镜解决方案,为百度地图的场景化服务提供 “可穿戴” 载体。
百度地图始终秉持开放合作理念,未来我们将继续深化与生态伙伴的合作,进一步树立 “硬件赋能软件、软件激活硬件” 的行业协同范式,助力 AI+AR 生态的繁荣与成长。同时期待与更多伙伴携手,进一步探索技术融合空间,为用户带来更智能、更便捷的出行体验。