上下文腐烂:拖垮企业AI与LLM表现的隐患与对策

9 阅读8分钟

文章指出,企业AI和LLM面临“上下文腐烂”问题,即过多或冲突数据导致AI性能下降、产生幻觉和延迟。解决之道在于数据治理和上下文质量管理,确保AI获取最相关信息。

译自:How context rot drags down AI and LLM results for enterprises, and how to fix it

作者:Todd R. Weiss

当今最常引用的商业箴言之一是,如果一家公司想要成功,数据就是一切。这几十年来一直被重复,但随着人工智能和人工智能代理的迅猛发展和广泛应用,这可能不再是事实。

相反,公司每天都在学习,尽管数据仍然很重要,但在使用人工智能时,数据的上下文可能更为关键。

那么,发生了什么变化?

随着人工智能获得动力,一些意想不到的后果开始阻碍其发展,其中包括令人烦恼的“上下文腐烂”问题,即当海量的关键数据被积累起来供人工智能使用时。对于企业和数据科学家来说,这种上下文腐烂一直带来重大挑战。

什么是“上下文腐烂”?

事实证明,有时你确实会拥有太多好东西,尤其是在将大量新数据引入人工智能代理和大型语言模型(LLMs)时。

问题在于,随着更多新数据的加入,它可能与已有的旧数据相冲突,稀释结果,引入相互矛盾的上下文,并导致代理和LLM变得困惑和迟钝。这种上下文腐烂破坏了产生高质量、可信赖AI结果的微妙平衡。上下文相关性被证明是成功地将海量数据与人工智能、代理搜索和混合搜索结合使用的核心。

由于新数据是在不移除过时数据的情况下引入的,处理这些数据的LLM在“注意力预算”耗尽时会达到饱和点。它们变得过载,根本无法处理接收到的每一条新数据。模型随后失去焦点,并偏离自身的推理,这削弱了人工智能的优势和速度。上下文工程的实践正是源于这些需求,旨在帮助企业学会管理模型的有限注意力。

对于业务用户来说,这种严重的干扰导致其关键业务数据内部出现停滞不前、日益混乱的局面。

企业使用人工智能时上下文腐烂问题如何浮出水面

当上下文腐烂在公司使用人工智能和LLM的工作中引起这些问题时,他们会以几种显著的方式看到并体验到它们,开放源代码人工智能搜索平台供应商Elastic的高级数据科学家Abhimanyu Anand向The New Stack表示。

“其中一种情况是你的AI代理或系统陷入循环,并且上下文冲突,”Anand说。“代理可能会将其作为基础,然后不断尝试获取答案。但也许它没有相关信息,所以它会尝试进行更多的工具调用来获取更多相关的文档。”

他说,对于公司而言,这表现为不必要的延迟,因为人工智能代理或LLM需要更长时间来回答问题,因为它仍在寻找正确的答案。

尝试了大约10分钟后,代理仍然无法找到正确的答案,但由于它收集了太多的上下文,它可能会产生幻觉并给你一个错误的答案。”

问题由此螺旋式上升。

他说:“尝试了大约10分钟后,代理仍然无法找到正确的答案,但由于它收集了太多的上下文,它可能会产生幻觉并给你一个错误的答案,”这是一个令人困惑的结果。

“LLM,即使是其中最好的,也由不同的公司训练,但它们尚未在一百万或一千万条数据上进行训练。因此,我们看到的是,如果你的代理或LLM拥有非常大的上下文,它会产生大量幻觉,并且其推理能力会下降。”

Anand表示,随着更多token的出现,数据稀释和可怕的上下文腐烂也随之而来。

如何修复上下文腐烂

Anand说,为了发现和监控这些问题,企业和IT管理员必须跟踪其应用程序和LLM的关键数据性能指标,以找到问题的根源。

这些指标可以包括生成响应所需的时间、消耗的token数量以及其他因素。人工智能和LLM数据中的token是表示单词或其他内容的实体,它们被分成块。然后,这些块或token由多位数字标识,再由人工智能和LLM进行分析和处理。

Anand说:“拥有一个良好且具有正确指标的评估设置是获取问题早期信号的最佳方式。”“建立在LLM之上的代理和其他应用程序,随着你输入的数据越来越多,它们在准确性和推理能力方面的性能会下降。”

Anand说,对于使用人工智能和LLM的企业来说,他们希望获得最好、最相关的上下文,包括文档、工具、外部工件和其他来源。

他说:“这就是像Elastic这样的解决方案真正能提供帮助的地方,因为我们拥有围绕从非结构化数据中获取最相关上下文而构建的功能。”

Elastic的平台包含一系列工具,可帮助解决上下文腐烂的挑战,包括其Elasticsearch分布式搜索和分析引擎以及可以存储嵌入的分布式向量数据库;其Elastic Agent Builder框架,它是Elasticsearch中用于使用结构化、非结构化和向量数据的一个层;以及一个向量存储,它允许企业摄取数据然后检索最相关的上下文。向量是数字数组,而嵌入是代表单词、句子、图像、视频和其他现实世界对象的向量。

同样有助于解决上下文腐烂问题的还有Elastic内置的可观测性平台,它允许管理员查看和监控AI代理、LLM等的运行情况;其Elastic Learned Sparse EncodeR (ELSER),它能够实现语义搜索,根据上下文意义而非精确关键词匹配来检索更相关的搜索结果;以及其JINA AI多语言和多模态嵌入模型,用于将图像和文本处理成向量格式。

Anand说:“这是一个关于你能用Elastic做的不同事情的全面软件包。”“从头开始构建这些东西是很困难的。”

上下文腐烂要求企业不断反击:分析师

Franconia Research的研究总监兼首席分析师James Kobielus告诉The New Stack,企业必须与上下文腐烂作斗争,以确保他们使用最准确和最新的数据,同时清除其代理人工智能和LLM操作中的旧有和无效数据。他说,当企业使用代理人工智能系统时,业务风险和影响甚至更为严重。

“除非通过LLMOps管道上下文中的强大治理将其扼杀在萌芽状态,否则腐烂会引发模型有效性降低的恶性循环。”

“如果驱动LLM媒介对话的上下文窗口被虚假、过时或不相关的上下文污染,终端用户在不知情的情况下可能会被部署的AI应用程序错误定位、误导或受到其他不当对待。”

Kobielus表示,这种由上下文腐烂引起的模型漂移和衰减“是一种技术债务,是任何已部署的LLM、基础模型或其他AI模型固有的。”“无论模型前期训练得多好,它都能悄无声息地破坏模型的持续准确性和有效性。”

Kobielus认为,降低LLMOps实践对上下文腐烂的敏感性需要一些核心治理实践。“这包括确保在不良数据用于在检索增强生成(RAG)工作流程中训练LLM引用之前,将不准确、冲突、过时和不相关的数据和元数据从公司的知识库中清除,”他说。

Kobielus说,对于遇到这些问题的企业来说,找到专注于解决这些问题的供应商至关重要。

他说:“我喜欢Elastic在提升上下文质量方面的综合方法。”“在RAG上下文中,这归结为提升跨不同和动态知识库的上下文数据搜索和查询的价值。他们的功能解决了LLM实践者在这方面所需的灵活性,特别是时间过滤、元数据增强、数据块分解优化以及检索量校准等功能,以优化token预算和模型窗口内的事实检索。”