喵伴EchoEar智能AI开发套件学习笔记

583 阅读2分钟

EchoEar 喵伴是乐鑫携手火山引擎扣子大模型团队打造的智能 AI 开发套件。

相信大家都被喵伴EchoEar超萌的外观圈粉了,但喵伴不止于此,背后技术更值得深入学习。硬件端,乐鑫继续贯彻技术平权路线,将声源定位算法、灵活的esp-brookesia框架释放出来;云端,火山引擎扣子平台也提供了大模型、多模态识别和智能体控制等能力。

我们团队一致觉得 EchoEar 喵伴是个好项目,非常值得玩一玩,很有可能会是25年最有影响力的开源项目之一。

AI硬件小铁匠在这一系列文章中将会按照 硬件分析、嵌入式软件源码分析、云端开发 三个部分来进行分享,并且还会分享基于喵伴一些实践作品。在自己学习喵伴项目的同时,也希望能帮助到屏幕前的小伙伴。

1 硬件分析

为什么喵伴一定要使用 32M Flash

喵伴BQ27220电池监测电路及驱动源码分析

姿态传感器

2 嵌入式软件源码分析

固件初体验

esp-brookesia 介绍

作为 EchoEar 的一大技术亮点,设备搭载的 esp-brookesia 框架不仅承担了整体 UI 的构建与渲染,还深度融合了火山引擎扣子平台 和乐鑫全新音视频框架 esp-gmf ,集成了多项面向端侧优化的智能功能,借助该框架,EchoEar 可实现全双工语音交互、多模态识别与智能体控制,构建更具沉浸感的人机交互体验。

3 云端开发

喵伴配置扣子智能体的步骤与常见问题

4 实践应用

技术交流

  • EchoEar喵伴技术讨论QQ群,734314639
  • 微信公众号: AI硬件小铁匠,有个人联系方式。