智能体设计模式:人机交互模式

134 阅读13分钟

智能体设计模式:人机交互模式

人机交互(Human-in-the-Loop HITL)模式,即人作为关键响应信息或者结果的的监控和决策者参与智能体处理。是当前众多代码Vibe Coding时使用的一种模式,是开发和部署代理的关键策略。它刻意地将人类认知的独特优势——如判断能力、创造力和细微理解——与AI的计算能力和效率巧妙结合。这种战略整合不仅是一种选择,而且往往是一种必要之举,尤其是在AI系统日益嵌入关键决策过程的情况下。【AI大模型教程】

    人机交互的核心原则是确保AI在道德界限内运行,遵守安全协议,并以最佳效果实现其目标。这些关切在复杂性、模糊性或显著风险特征的领域中尤为突出,因为在这些领域中,人工智能错误或误判的影响可能是巨大的。在这样的情况下,完全自主——即AI系统在没有任何人类干预的情况下独立运行——可能会被证明是不明智的。人机交互承认这一现实,并强调即使在人工智能技术飞速发展的情况下,人类的监督、战略性的投入以及协作性的互动仍然是不可或缺的。

    人机交互的方法从根本上围绕着人工智能和人类智能之间协同增效的理念。人机交互并不将AI视为人类工人的替代品,而是将其视为一种工具,能够增强和提升人类的能力。这种增强可以采取各种形式,从自动化日常任务到提供数据驱动的见解,以指导人类决策。最终目标是创建一个协作生态系统,在这个系统中,人类和AI代理都可以利用其各自独特的优势,共同实现那些单凭一方无法独立完成的目标。

在实践中,人机交互可以以多种方式实施。一种常见的方法是让人类充当验证者或审查者,检查AI的输出以确保准确性并识别潜在错误。另一种实现方式涉及人类主动引导AI行为,实时提供反馈或进行修正。在更复杂的设置中,人类可以与AI作为合作伙伴协作,通过互动对话或共享界面共同解决问题或做出决策。无论具体实现方式如何,HITL模式强调了保持人类控制和监督的重要性,确保AI系统始终与人类伦理、价值观、目标以及社会期望保持一致。

概述

人机交互(HITL)模式将人工智能与人工输入相结合,以增强Agent的能力。这种方法承认,最优的人工智能表现往往需要自动化处理与人脑洞察力的结合,尤其是在复杂性高或涉及伦理考量的情况下。人机交互的目标不是取代人类的投入,而是通过确保关键的判断和决策基于人类的理解来增强人类的能力。

人机交互涵盖了几个关键方面:人类监督,这包括通过日志审查或实时仪表板等方式监控AI代理的性能和输出,以确保其遵守指导原则并防止出现不良结果。当AI代理遇到错误或模糊场景时,会进行干预和修正,并可能请求人类介入;人类操作员可以纠正错误、提供缺失的数据或指导代理,这同时也为未来的代理改进提供了信息。人类反馈用于学习,这些数据被收集并用于优化AI模型,尤其是在使用人类反馈的强化学习等方法论中,人类的偏好直接影响了代理的学习轨迹。决策增强是指AI代理向人类提供分析和建议,而人类则在此基础上做出最终决策。通过AI生成的洞见来增强人类的决策能力,而非完全由AI自主做出决策。人类-代理协作是一种合作互动模式,其中人类和AI代理各自发挥其优势;常规数据处理可能由代理处理,而创造性的问题解决或复杂的谈判则由人类负责。最后,升级政策是规定代理应何时以及如何将任务升级到人工操作员的既定协议,以防止在代理能力之外的情况中出现错误。

实施人机交互(HITL)模式使代理商能够在完全自治不可行或不允许的敏感部门使用。它还提供了一个通过反馈循环进行持续改进的机制。例如,在金融领域,大型企业贷款的最终批准需要一个人力贷款官员评估诸如领导性格等质量因素。同样,在法律领域,正义和问责的核心原则要求人类法官保留对判决等关键决策的最终权威,这些决策涉及复杂的道德推理。

注意事项: 人机交互(HITL)模式尽管有其优点,但也存在显著的缺点,其中最主要的是缺乏可扩展性。虽然人工监督提供了高准确性,但操作员无法管理数百万个任务,这就形成了一个基本的权衡,通常需要采用混合方法,将自动化用于规模,而HITL用于准确性。此外,这种模式的有效性在很大程度上取决于人类操作人员的专业技能;例如,虽然AI可以生成软件代码,但只有熟练的开发人员才能准确识别细微的错误并提供正确的指导来修复它们。这种对专业性的需求也适用于使用HITL生成训练数据的情况,因为人类标注员可能需要特别的培训,才能学会以一种能够产生高质量数据的方式去纠正AI的错误。最后,实现HITL会引起严重的隐私问题,因为敏感信息通常必须严格匿名,然后才能暴露给操作员,这增加了另一层流程复杂性。

应用案例

在各种行业和应用中,人环模式至关重要,特别是在准确性、安全性、道德或细微理解至关重要的情况下。

● 内容审核:AI代理可以快速筛选大量在线内容,以查找违规内容(例如仇恨言论、垃圾信息)。然而,模棱两可的案件或边界内容会升级到由人工调解人进行审查和最终决定,以确保细致的判断和遵守复杂的政策。

● 自动驾驶:虽然自动驾驶汽车能够自主处理大多数驾驶任务,但在复杂、不可预测或危险的情况下(例如极端天气、不寻常的道路状况),它们被设计为将控制权移交给人驾驶者,因为人工智能无法自信地应对这些情况。

● 金融欺诈检测:AI系统可以根据模式来标记可疑交易。然而,高风险或模糊的警报通常会发送给人类分析人员,他们会进一步调查、联系客户,并最终确定交易是否欺诈。

● 法律文件审查:AI可以快速扫描和分类数千份法律文件,以识别相关的条款或证据。然后,人类法律专业人士会审查AI的发现,检查其准确性、背景情况以及法律影响,特别是在一些关键案件中。

● 客户支持(复杂查询):聊天机器人可以处理常规的客户询问。如果用户的问题过于复杂、情绪化,或者需要一种AI无法提供的同理心,那么对话将无缝地转交给一位人工支持代理。

● 数据标签和注释:AI模型通常需要大量带有标签的数据集进行训练。人类被引入这一流程,以准确地对图像、文本或音频进行标记,从而为人工智能的学习提供真实的基础数据。随着模型的演变,这是一个持续的过程。

● 生成式人工智能优化:当一个LLM生成创造性内容(例如营销文案、设计思想)时,人类编辑或设计师会审查和完善输出,确保它符合品牌指南,与目标受众产生共鸣,并保持质量。

● 自治网络:AI系统能够通过利用关键性能指标(KPI)和已识别的模式,来分析警报并预测网络问题和流量异常。然而,关键决策(如处理高风险警报)经常被提升到人类分析人员。这些分析人员进行进一步调查,并就网络变更的批准做出最终决定。

这种模式是AI实现的一种实用方法范例。它利用人工智能来提升可扩展性和效率,同时保持人类监督,以确保质量、安全性和道德合规性。

“人机协作”是这种模式的一种变体,其中人类专家定义总体政策,而AI则处理即时行动,以确保合规性。我们来考虑两个例子:

● 自动化的金融交易系统在这种情况下,由一位人类金融专家制定总体投资战略和规则。例如,人类可以将政策定义为:“保持70%科技股和30%债券的投资组合,不对任何一家公司投资超过5%,并自动卖出任何低于购买价10%的股票。”然后,人工智能会实时监控股票市场,一旦这些预设条件得到满足,便立即执行交易。人工智能正在根据人类操作员设定的较慢、更具战略性的政策,处理那些即时且高速的行动。

● 现代呼叫中心在这种设置中,由一名人力经理为客户互动建立高级策略。例如,经理可以设定规则,例如“任何提到‘服务中断’的电话都应该立即转发给技术支持专家”,或者“如果客户的语气表明非常沮丧,系统应该提供将他们直接连接到人工代理。“然后,这个AI系统会处理最初的客户互动,实时聆听并理解他们的需求。它通过即时路由呼叫或提供升级来自主执行经理的策略,而无需人为干预每个单个案例。这使得AI能够根据人类操作员提供的较为缓慢、战略性的指导,来管理大量即时的操作任务。

    智能体代理充当智能的第一线支持,配置有特定指令,并配备了故障排除、创建票据和升级到人等工具,以管理完整的支持工作流程。升级工具是HITL设计的核心部分,确保将复杂或敏感的案件传递给人类专家。

    这种架构模式的一个关键特征是它可以通过专用回调函数实现深度个性化。在联系LLM之前,该函数将动态地从代理状态中检索客户特定的数据,如客户名称、级别和购买历史记录。然后将此上下文作为系统消息注入到提示中,使代理能够提供高度定制和知情的响应,这些响应引用用户的历史。通过将结构化工作流与必要的人为监督以及动态个性化相结合,展示了如何促进复杂且强大的AI支持解决方案的开发。

小结

定义:AI系统,包括先进的LLMs,往往难以处理那些需要细致的判断、伦理推理或对复杂、模糊情境深刻理解的任务。在高风险环境中部署完全自主的AI存在显著风险,因为错误可能导致严重的安全、财务或伦理后果。这些系统缺乏人类所拥有的内在创造力和常识推理能力。因此,在关键决策过程中完全依赖自动化往往是轻率的,并可能损害系统的整体效力和可信度。

原理:“人机协作”模式通过策略性地将人类监督融入人工智能工作流程,提供了一种标准化的解决方案。这种能动性的方法建立了一种共生合作关系,其中AI负责处理繁重的计算和数据处理工作,而人类则提供关键的验证、反馈和干预。通过这种方式,HITL确保了AI行动与人类价值观和安全规程的一致性。这种协作框架不仅减轻了完全自动化的风险,还通过不断学习人类输入来增强系统的能力。最终,这导致了更加稳健、准确且合乎道德的结果,这是人类或人工智能都无法单独实现的。

经验:在将AI部署到那些错误可能带来重大安全、伦理或财务后果的领域时,如医疗保健、金融或自动驾驶系统,应采用这种模式。对于LLMs无法可靠地处理的涉及模糊性和细微差别的任务(如内容审核或复杂的客户支持升级)来说,它至关重要。当目标是利用高质量、人工标注的数据持续改进AI模型,或细化生成式AI输出以符合特定质量标准时,应采用HITL方法。

关键点

主要收获包括:

● 人机协作(HITL)将人类智能和判断融入AI工作流程中。

● 在复杂或高风险情景中,这对于安全、道德和有效性至关重要。

● 关键方面包括人力监督、干预、学习反馈和决策增强。

● 升级策略对于代理人知道何时交给人类是至关重要的。

● HITL使得负责任的AI部署和持续改进成为可能。

● Human-in-the-Loop的主要缺点是其固有的可扩展性不足,导致在准确性和数量之间产生权衡,并且需要依赖高技能的领域专家进行有效干预。

● 其实施带来了操作上的挑战,包括需要培训操作人员生成数据,并通过匿名敏感信息来解决隐私问题。

结论

    这一章探讨了关键的人机交互模式,强调了其在创建稳健、安全且符合伦理的AI系统中的作用。我们讨论了将人工监督、干预和反馈集成到代理工作流中如何显著提高其性能和可信度,特别是在复杂和敏感领域。实际应用展示了HitL的广泛实用性,从内容控制和医疗诊断到自动驾驶和客户支持。概念代码示例展示了ADK如何通过升级机制促进这些人机交互。随着AI能力的不断进步,HITL仍然是负责任AI发展的基石,确保人类价值观和专业技能始终处于智能系统设计的核心地位。

【AI大模型教程】