开源Multi-agent AI智能体框架,欢迎大家贡献代码

96 阅读24分钟
2025 年是 AI Agent 的元年,我们团队历时 3 个多月,现正式开源Multi-Agent AI 框架,欢迎各位园友前往 GitHub Fork、Star 或提交 PR,共同打造 aevatar.ai 生态。
 
Github地址: 
aevatar 核心框架: github.com/aevatarAI/a…
aevatar平台: github.com/aevatarAI/a…
aevatar 案例: github.com/aevatarAI/a…
 
aevatar.ai,一个统一的多智能体平台,旨在解决跨领域和多样化工作负载下开发、部署和管理多种AI智能体的复杂性。通过基于插件的方法和灵活的部署策略——从基于DLL的加载到容器化和分布式执行框架——aevatar.ai允许用户和开发者在一个统一的生态系统中无缝集成专业化的AI解决方案。
 
关键组件包括:aevatar框架,定义了标准化的智能体接口和生命周期管理;aevatar Station,一个集中化的门户和市场,用于智能体发现、插件处理、请求路由和用户访问控制;以及aevatar Agents,一个包含官方和社区开发的AI模块的仓库,支持多种任务,如自然语言理解、计算机视觉和推荐系统。通过集中化智能体交互和事件流,aevatar.ai减少了集成开销,强制执行一致的安全策略,并提供强大的监控和日志功能以提高可靠性。
 
通过其开源、模块化的架构,aevatar.ai既适用于小规模使用,也支持大规模企业部署,具备高并发、自动扩展、智能体重用、沙箱化和审计追踪等功能。这些创新促进了一个可持续的AI生态系统,使组织能够快速采用和发展先进的AI能力,同时让开发者专注于创建强大、专业化的智能体,而无需担心基础设施和生命周期管理的复杂性。
  1. 引言 (Introduction)

  2. 随着人工智能(AI)技术的快速发展,大型语言模型(LLMs)和智能体的应用已从单一问答交互演变为更高级的能力,如多智能体协作、跨模型合作和复杂业务流程编排。
    然而,目前市场上的AI系统普遍面临平台隔离、模型限制、部署复杂和缺乏可观测性等问题,难以满足企业用户对高效、灵活和安全AI协作的需求。
    aevatar.ai作为下一代多AI智能体框架的先行者,旨在构建一个跨平台、跨模型的AI智能体生态系统。通过开放的架构、强大的可视化编排能力和云原生部署方式,它赋能开发者和业务用户在一个系统中统一管理、调度和协调多个智能体,实现“多场景、多模型、多角色”的高效协作。
    通过aevatar.ai,我们致力于提供一个灵活、可扩展且符合安全要求的AI解决方案,以推动AI技术的广泛应用和落地。

    1. 背景与挑战 (Background & Challenges)

    2.1 AI智能体系统隔离

    目前,许多AI智能体被隔离在各自的平台中,缺乏统一的通信协议和互操作性。这使得系统之间难以共享数据或协同工作,限制了AI系统的整体效能,尤其是在需要跨平台协作的场景中。

    2.2 单一LLM的局限性

    大多数AI智能体依赖于单一的语言模型(如GPT-4或Llama2)。这带来了集中风险;在面对复杂的多步骤任务或多语言场景时,性能可能会受到影响。
    单一LLM模型的局限性使得系统无法灵活切换或并行使用多个模型,从而限制了其应用范围和性能。

    2.3 检索增强生成(RAG)精度不足

    大多数AI智能体使用检索增强生成从专业知识库中检索信息,但由于信息或文档可能不相关、过时或质量低下,难以实现完美的知识库优化和准确性。

    2.4 缺乏事件追踪与可观测性

    现有的AI系统通常缺乏对AI智能体内部状态和历史交互的源头管理。当系统故障或推理异常发生时,难以定位问题并重放事件,增加了维护复杂性和风险。

    2.5 高部署与协作成本

    传统的AI系统通常需要复杂的安装、配置和维护过程。缺乏用户友好的工作流编排工具,尤其是在多智能体协作场景中,导致开发和维护成本较高。
    1. 总体目标与愿景 (Vision & Goals)

    3.1 核心:aevatar框架

    aevatar框架是aevatar.ai的核心,负责处理基本处理逻辑、智能体交互和核心组件。
    Orleans“Grains”作为智能体
    • Orleans使用“grains”(轻量级、隔离的微对象)来表示参与者或“智能体”。
    • 一组silos(Orleans中的运行时主机)协调这些grains,使其可以分布在多台服务器上并进行扩展。
    • 在此架构中,每个grain实际上是一个智能体(通常称为“GAgent”)。
    多智能体
    • 图中展示了多层智能体分组。例如,一个“发布GAgent”协调多个“组成员GAgent”实例。
    • 事件处理器管理异步触发器或状态变化,使智能体能够实时响应来自其他智能体的数据或更新。
    AI集成
    • Semantic Kernel提供高级AI编排和提示链功能。
    通过结合以上所有内容,系统可以扩展大量AI智能体,每个智能体执行专门任务,同时通过分组或子组协调它们以实现更复杂的协作目标。

    3.2 顶层:aevatar应用

    • 市场:一个集中化的平台,用户可以发现、开发、管理和部署各种AI智能体。
    • 智能体:执行特定任务或功能的独立AI智能体。这些智能体可以独立开发和部署。
    • Webhook:aevatar可以无缝编排大量外部输入,将现实世界的触发器转换为结构化事件,供G-agent处理,从而实现与各种外部系统的持续、实时交互。
    示例智能体
    • Twitter智能体:监控推文、发布更新或与Twitter互动。
    • Telegram智能体:与Telegram进行聊天交互。
    • 编程智能体:帮助生成或审查代码。
    • 营销智能体:执行营销任务,如活动管理。
    • 运营智能体:处理运营任务。
    • aelf智能体等。
    这些是基于底层多智能体框架构建的面向终端用户的“产品”。每个智能体都可以具有专门的逻辑,连接外部API,并利用aevatar核心引擎。

    3.3 环境(Web 2 / Web 3)

    这表示aevatar智能体运行的更广泛环境——既包括传统的Web 2.0环境(如REST API、SaaS服务),也包括Web 3.0环境(如区块链或去中心化服务)。该框架旨在无缝融入这些生态系统。

    3.4 LLM集成

    在图的右侧,您可以看到主要的LLM(大型语言模型)提供商:
    • OpenAI / ChatGPT
    • Anthropic
    • Meta
    • Azure OpenAI
    • Deepseek
    • 以及其他更多…
    这些LLM通过Semantic Kernel连接器集成,使每个智能体都能利用自然语言理解、生成和高级推理功能。

    3.5 数据与消息层

    在框架之上,核心数据与消息技术包括:
    • Kafka:实时消息传递和事件流。
    • MongoDB:基于文档的通用数据存储。
    • Elasticsearch:大规模全文搜索和分析。
    • Redis:用于缓存和高速访问的内存数据存储。
    • Qdrant:专用向量存储。
    这些技术支持高吞吐量的数据摄取、搜索、缓存和状态管理,对于大规模智能体交互至关重要。

    3.6 部署与DevSecOps

    用于构建、部署和管理aevatar框架的DevSecOps工具包括:
    • Kubernetes + Docker:跨集群的容器化和编排。
    • GitHub Actions, GitOps, Argo:CI/CD管道和“GitOps”风格的部署,用于自动化、版本化发布。
    • “DevSecOps”循环突出了以安全为中心的持续集成/持续部署实践。

    3.7 多云与安全

    最后,支持多云策略,涵盖:
    • GCP、AWS、Azure:支持的云服务提供商。
    • 额外的安全和可观测性工具,如Grafana(监控仪表板)、Vault(密钥管理)、Elasticsearch/Fluentd/Kibana(EFK日志和分析堆栈)等。
    这确保了平台可以在不同云基础设施上以安全、容错和成本高效的方式运行。

    3.8 整体架构

    • 每个aevatar应用(如Twitter智能体或编程智能体)都是一个Orleans“grain”(或一组grains),封装了专门的逻辑。
    • 多智能体或“分组”方法协调大量grains,使它们能够通过Kafka、Redis或直接Orleans消息传递相互传递事件/消息。
    • Semantic Kernel帮助编排更高级的AI推理、提示链和记忆/知识。
    • 整个设置打包用于云部署(Kubernetes + Docker),并与日志、安全和监控解决方案(Grafana、Vault、EFK)集成。
    • 这种组合提供了一个可扩展、容错且高度可扩展的平台,用于在多个领域(Web 2和Web 3)、多个云上运行AI智能体,同时具备强大的安全性和可观测性。
    简而言之,aevatar.ai是一个全栈、云原生的多智能体编排框架,利用Orleans实现基于参与者的扩展,集成Semantic Kernel以提供AI功能,并采用全面的DevSecOps管道和多云部署策略。

    3.9 解决上述挑战

    1. 多智能体协作

    2. GAgent: 基于grain的智能体
      通过分布式参与者模型(基于Orleans)和多智能体管理机制,aevatar.ai实现了多个AI智能体之间的高效互联和复杂事件调度,支持跨平台和跨场景的协作工作流。
      aevatar.ai实现了多智能体框架,将AI智能体划分为不同的功能角色。它为多个智能体分配特定职责并将其分组,以在系统中完成用户分配的任务。
      1. 统一的跨模型协作

      aevatar.ai 提供了一个多语言模型并行智能体框架。这克服了单一模型的局限性,支持在不同任务中自由切换或并行使用多个模型,从而提升系统灵活性和性能。
      1. 多智能体RAG架构

      在多智能体RAG架构下,每个AI智能体代表一个基于特定知识库、检索策略和生成配置的定制化RAG;这在整个系统中最擅长的领域提供答案。 通过编排器,用户问题被分配给适当的智能体。或者,也可以并行调用多个智能体,并通过信息整合模块合并答案。这实现了更专业、全面和可扩展的问答或信息生成系统。
      多智能体RAG模型支持:
      1. 灵活扩展:基于不同业务线或知识领域快速部署新智能体。
      2. 降噪:利用领域特定知识库减少无关信息干扰。
      3. 增强可信度:多个智能体之间的交叉验证。
      4. 可持续性:独立维护每个智能体的知识库,便于分而治之。
    这使得能够构建一个能够持续生成高质量内容的多智能体RAG平台。
    1. 可视化与易用性

    2. aevatar.ai仪表板提供了低代码/无代码的可视化编排工具,帮助用户轻松设计和监控复杂的工作流。这是降低技术门槛的重要一步,使几乎任何人都能快速上手创建和个性化AI智能体。
      1. 安全性与可扩展性

      基于云原生的DevSecOps和微服务架构,aevatar.ai提供了弹性扩展和高并发处理能力,同时确保系统安全性和合规性,满足企业级用户需求。
      1. 架构

      aevatar.ai 由三个主要组件组成:aevatar框架、aevatar Station和aevatar Agents。它们协同工作,管理多个AI智能体的整个生命周期——从创建到部署再到持续运营
      1. aevatar框架

      aevatar框架旨在支持AI智能体和事件溯源机制,提供模块化架构以实现可扩展性和可维护性。它利用依赖注入和观察者模式等设计模式来增强灵活性和可扩展性。
      设计原则
      • 模块化:框架设计为模块化,允许开发者根据需要添加或移除组件。
      • 可扩展性:新功能可以通过插件添加,而无需修改核心框架。
      • 关注点分离:每个组件都有特定的职责,提升可维护性和可读性。
      该框架为开发AI智能体和事件溯源应用提供了灵活的架构,通过其模块化设计实现轻松集成和扩展。通过遵循设计原则和模式,框架确保在添加新功能时仍能保持可扩展性和可维护性。
      1. 核心组件概述

      参与者模型(Actor Model)
      • 负责管理分布式参与者(Grain)的生命周期和通信,为每个智能体提供有状态且可重放的执行环境,确保系统的高并发性和可扩展性。
      GAgent
      • 每个子模块(如Telegram、Twitter、MicroAI、SocialAgent等)都是一个独立的GAgent,针对不同平台或场景实现特定的智能体逻辑,支持跨平台扩展。
      事件溯源(Event Sourcing)
      • 提供日志存储、事件重放和快照管理的核心功能。支持多种后端存储选项(如MongoDB和Redis),并确保系统的可追溯性和审计能力。
      • 所有关键的智能体事件(如接收的消息、状态更新、模型推理输出)都可以持久化,提供重放和审计能力。
      CQRS(命令查询职责分离)
      • 对外提供REST/gRPC接口,并通过读写分离架构支持高效的内部数据查询和索引。结合Elasticsearch等解决方案,实现大规模数据的快速检索。
      • 读写分离:系统可以独立处理智能体状态变更的写请求(事件)和外部查询接口。
      • 结合Elasticsearch/MongoDB实现快速检索和多维度查询。
      aevatar仪表板
      • 图形化管理工具,允许用户通过低代码/无代码方式配置多智能体协作流程、监控事件流并编辑业务逻辑。这显著降低了开发门槛,尤其对非技术用户友好。
      1. GAgent多智能体协作模型

      • 采用GAgentBase<TState, TEvent>作为抽象基类,智能体可以继承并实现自己的业务处理方法。
        • GAgent:管理组内多个智能体的订阅、消息路由和事件协调,支持组内广播、点对点或基于树的事件传输。
      1. 多大型语言模型(LLM)编排

      • 多管齐下:aevatar.ai通过AIServiceAutoGen机制集成对多个LLM(如GPT-4、Claude、Llama2等)的访问。
      • 调度策略:根据任务类型、资源成本、复杂性等维度动态决定调用哪些模型。
      • 模型适配层:在框架层面支持连接更多第三方或私有模型,为企业提供定制化的多语言模型管理。
      1. 云原生部署与安全合规

      2. Kubernetes部署
        • Orleans Silo和智能体服务可以容器化,支持自动扩展(HPA)、服务发现和弹性负载均衡。
        DevSecOps & GitOps
        • 提供容器镜像安全扫描、CI/CD集成和基础设施即代码(IaC)部署,确保应用安全性和可追溯性。
        安全策略
        • 通过AuthServer和OAuth/OpenID系统进行身份验证,支持多租户和基于角色的访问控制(RBAC)。
        1. 技术细节

        整体流程
        1. 用户 → aevatar GAgent:捕获用户的消息或命令。
        2. GAgent → aevatar框架:将结构化事件传递给框架(多智能体协作和AI交互)。
        3. aevatar框架 → 核心逻辑(RAG和LLM):RAG和LLM解析请求。
        4. 核心逻辑(RAG和LLM)→ 外部服务或知识/记忆库:检索数据或调用专门操作。
        5. aevatar框架 → 输出代理:格式化并准备最终输出。
        6. 输出 → GAgent → 用户:用户收到响应。
        7. 详细流程
          • 智能体创建与初始化:客户端请求GAgentFactory创建智能体,智能体使用StateLogEventStorage初始化状态,并通过StreamProvider设置订阅。
          • 事件发布与处理:客户端(或其他系统)向智能体发布事件,智能体将事件追加到事件存储中,更新其内存状态,并在必要时发布到外部流。
          • 状态恢复:在需要时,智能体从存储中检索快照,并应用所有后续事件,最终获得最新状态。
          显著特点与优势
          • 多智能体协作:系统可以将复杂任务拆分为更小的专门子任务,每个任务由适当的智能体处理。
          • 动态流程:智能体按需激活和调用(虚拟参与者模型),允许在任务可拆分的场景中实现并发或并行调用。
          • 与外部服务集成:知识模块可以无缝整合实时数据、领域文档或高级处理能力。
          • 检索增强生成(RAG):智能体可以查询向量数据库或记忆存储,利用最新的上下文数据增强LLM或其他逻辑。
          • 可扩展性与扩展性:每个组件都可以水平扩展,新的智能体或工具可以在不改变主要架构的情况下引入。

          5.1 Orleans参与者模型与可扩展性

          • 分布式参与者:每个智能体作为一个Grain,存储自己的状态和事件历史。Orleans处理调度和消息传递,消除了手动管理并发锁和网络通信的需求。
          • 水平扩展:当系统需要处理更多对话或更高并发时,添加Silo节点可以扩展智能体实例并自动平衡负载。

          5.2 GAgentBase设计与事件驱动架构

          • GAgentBase<TState, TStateLogEvent>
            • 继承JournaledGrain<TState, StateLogEventBase<TStateLogEvent>>,天然具备事件溯源能力。
            • 通过PublishToAsync/SubscribeToAsync等方法,允许智能体自由组合和交互,形成多对多或多级事件流拓扑。
          • EventWrapper
            • 为所有事件添加ID、时间戳和上下文等元数据,便于审计和调试,避免传统“黑箱AI”问题。
          • 5.3 低代码/无代码编排与可视化

             
            • 拖放流程设计:用户可以在仪表板上拖放智能体节点、配置事件路由并设置模型策略,而无需编写复杂的后端代码。
            • 实时监控与日志重放:集成事件溯源日志,允许通过aevatar仪表板查看任何时刻的事件序列或智能体状态,帮助业务优化和维护故障排查。

          5.4 可观测性与监控

          • 分布式追踪:集成OpenTelemetry、Jaeger或Zipkin,可视化跟踪跨智能体/Grain的调用链。
          • 指标与警报:收集系统指标(如QPS、延迟、错误率等),并基于Prometheus/Grafana实现实时警报。
          • Orleans仪表板:可选的内置Orleans仪表板,显示运行时数据(如Grain激活数量、消息处理速率等)。
          1. 关键特性

          6.1 多模型并行处理/动态切换

          • 根据业务需求自动(或手动)在不同LLM之间切换。
          • 能够分配多个模型同时处理子任务并合并结果。

          6.2 高级任务编排与协作

          • GAgent提供基于事件的协作机制,允许多个智能体并行处理复杂业务流程。

          6.3 RAG集成

          • 连接向量数据库/文档搜索引擎,使智能体能够从大规模知识库中检索并生成答案。

          6.4 跨平台扩展

          • 通过插件与Telegram、X、Slack等平台集成,快速构建多渠道聊天/通信场景。

          6.5 开发者与非开发者友好

          • 面向开发者:提供可编程的插件框架。
          • 面向非技术人员:通过仪表板的低代码/无代码管理,快速上手。
          1. 用例

          2.  

            7.1 多智能体协作/自动化

            • 跨部门智能体:
              • Finance Agent(财务智能体)自动处理报销工作流程
              • HR Agent(人力资源智能体)负责简历/履历筛选
              • IT Agent(IT智能体)管理工单
              • 各智能体可相互通知事件或汇总审批结果
          3. 低代码管理:
              • 用户可在 aevatar Dashboard 中配置流程并设置触发条件
              • 智能体在接到指令后,会根据事件流程自动执行
               
            以上基于任务的编排,使 G‐agents(G-智能体)既能独立运行又可无缝协同,充分利用各自的专业能力,更高效地完成复杂目标。

            7.2 多语言客服/社交媒体智能体

            • Telegram/X 适配:
              • 可部署多个智能体进行交互
              • 支持多种通信渠道与多语言服务

            7.3 区块链/金融/制造业中的行业应用

            • 智能合约分析:
              • 智能体从区块链中获取智能合约文本
              • 执行风险检测和语言解析
              • 发现异常时,向运营智能体推送警示
            • 数据驱动的决策:
              • 在制造行业,智能体可实时分析 IoT 传感器数据
              • 并结合 LLM(大型语言模型)提供故障诊断或生产建议
            1. 当前的 AI 框架格局

            8.1 对比表:aevatar intelligence x ElizaOS x G.A.M.E

            对比方向
            aevatar intelligence
            ElizaOS
            G.A.M.E
            主要优势(Key Strength)
             
            • 用户无需编写代码或少量代码即可使用
            • 各个Agent能按照需求、复杂度各自以不同LLM驱动并协作
            • 设定Agent协作的逻辑、协作的流程
            • 能回放事件,以分析Agent的工作流程
            • 功能集与插件集不断增长
            • 完全可定制并可控
             
            • 低代码、低复杂度的上线方式
            能力(Capabilities)
             
            • 不同语言模型驱动的Agent们可以同时协作
            • Agent和工作流可以轻易创建、复制、调整、扩展
             
            各个Agent只能同时使用同一种语言模型协作,之间目前无法交互、协作、集体做决策
             
            各个Agent只能同时使用同一种语言模型协作,之间目前无法交互、协作、集体做决策
            多语言模型(LLM)编排
            通过 AutoGen 进行多LLM编排,适用于在任何类型的应用中进行复杂推理和决策
            仅限于单一模型的 API 集成,没有多LLM自动化,不具备跨应用的灵活性
            针对虚拟世界中的自然语言交互进行了优化,不适用于通用型应用
            框架设计(Design)
            模块化+延展性插件+动态集群管理 系统
            模块化+延展性插件 系统
            模块化+ 环境无关性 (environment agnostic)
            目标用户(Target Audience)
            终端用户与技术型开发者均适用
            技术型开发者
            非技术型用戶
            编程语言(Coding Language)
            无代码 或 低代码(no-code or low-code)
            TypeScript/JavaScript
            低代码 (Low-code)
            可扩展性 (Scalability)
             
            • 使用 Orleans,一个结合了微服务和 Actor 模型的分布式框架,可针对大规模代理网络实现可扩展性和高可用性。
            • 基于容器化部署,使用 Kubernetes 实现跨云能力、自动伸缩、高可用性和高并发。
            • 使用 Node.js,多进程架构,但缺少分布式编程模型。
             
            • 依赖于 Photon 或 SpatialOS 之类的游戏专用后端来实现实时性能。
             
            用例(Use Cases)
             
            为区块链和金融等行业中的通用、可扩展、多领域逻辑而构建
             
            为较小的网页项目和社区驱动的原型开发而构建
             
            为游戏和元宇宙场景(包含通证经济集成)而构建
            云原生 & DevOps (Cloud Native & DevOps)
            先进的云原生 Kubernetes 部署,通过 DevSecOps & GitOps 提供强大的安全性
            专注于速度,但缺乏广泛的自动化和合规机制
             
            专注于性能,但未提供完整的云原生工具
             
            维护 (Maintainability)
             
            Agent-as-a-Service 通过Plugin进行功能迭代,无须用户自己部署服务。优化了对Agent开发和部署的操作。
            Supabase 借助其后端即服务(Backend-as-a-Service)平台,为开发运维提供易用的部署方式
             
            未确定 —— 闭源
             
            代码获取 (Code Access)
            开源
            开源
            闭源(黑盒)
            平台集成 (Platform Integrations)
             
            • Twitter
            • Telegram
             
            • Discrod
            • Twitter
            • Telegram
            • Discrod
            • Twitter
            • Telegram

            8.2 技术与商业价值

            强大的多语言模型协作
            • 允许在同一个业务流程中调用多个大型语言模型
            • 优化成本与性能
            易用性
            • aevatar Marketplace 提供低/无代码编辑器
            • 大幅缩短智能体开发与运营周期
            高并发与可追溯性
            • 基于 Actor + Event Sourcing
            • 系统可轻松处理数万级并发操作
            • 所有交互历史可回放并进行审计
            合规与安全
            • 结合云原生 & DevSecOps & GitOps
            • 在 Kubernetes 中实现自动化部署
            • 确保安全与合规要求
            1. 路线图

            9.1 短期规划

            9.2 长期规划

            增强的向量检索 (RAG) 能力
            • 原生支持向量数据库
            • 优化海量文档分块检索与 AI 答案生成
            增强的智能体插件市场
            • 推出多行业插件生态系统
            • 提供可即插即用的智能体模块,覆盖如:
              • 金融风控
              • 供应链管理
              • 医疗健康
            服务网格与零信任安全
            • 进一步深化服务网格集成
            • 加强数据加密、流量管控与访问策略
            RLHF(基于人类反馈的强化学习)机制
            • 支持对智能体进行实时人类反馈训练
            • 持续优化对话质量、逻辑推理及行为决策
            无限的智能体协作
            • 探索与第三方 AI 系统及边缘计算设备的互联
            • 将多智能体协作从云原生拓展至物联网或其他 AI 智能体平台
            1. 总结

            随着多模型、多智能体协作逐渐成为主流,aevatar.ai 作为下一代 AI 智能体经济的先行者,提供了跨平台、跨语言模型、低门槛且高度可扩展的解决方案。
            通过充分利用 Orleans Actor 模型、事件溯源以及云原生架构,aevatar.ai 实现了以下核心价值:
            • 全面的多智能体协作:突破单一模型和封闭生态的限制,让不同 AI 智能体之间实现信息共享与高效通信。
            • 可视化与低代码:大幅降低开发和维护门槛,帮助不同层级的用户快速落地 AI 智能体解决方案。
            • 高并发与可追溯性:分布式 Actor 与事件溯源,确保在大规模场景中的稳定性与可审计性。
            • 安全与可扩展性:云原生 DevSecOps 方案,既满足行业定制化需求,又确保合规。
            展望未来,aevatar.ai 将持续迭代升级,致力于打造功能全面、稳健的 Agent-as-a-Service 平台,为更多行业和个人用户带来便捷而强大的 AI 协作体验。
             
            我们诚邀社区共同参与生态建设,携手推动 AI 智能体系统的开放与成功。
             
            Github地址: 
            aevatar 核心框架: github.com/aevatarAI/a…
            aevatar平台: github.com/aevatarAI/a…
            aevatar 案例: github.com/aevatarAI/a…