大模型时代的隐私护航:数据脱敏方案
导论
数据脱敏的必要性
大语言模型(LLM)的训练依赖于海量数据集,这些数据中可能无意间包含个人可识别信息(PII)和其他敏感内容。一个核心风险在于,LLM 可能会“记住”并无意中泄露其训练数据的一部分。此外,用户与 LLM 的交互,如提示词(prompts),也可能包含 PII,这些信息若被记录或处理不当,同样会引发安全问题。LLM 所带来的独特风险包括其处理数据的规模空前、其“黑箱”特性使得内部机制难以完全洞察,以及其强大的生成能力可能被用于重构或推断敏感细节。
因此,数据脱敏对LLM而言,不仅是良好实践,更是关键的必要措施。LLM的特有风险与一般数据隐私问题不同,主要体现在模型对敏感内容的记忆和意外生成能力上。LLM的强大之处在于能从海量数据中学习复杂模式,但这恰恰构成了其隐私保护的薄弱环节。它们通过处理大规模数据集学习模式、语法甚至事实信息,但这一过程也可能导致模型记住并无意中“反刍”出包括个人可识别信息(PII)在内的特定敏感数据点。这种内在矛盾性要求脱敏策略必须在保护隐私与维持模型效用间取得精妙平衡。因此,数据脱敏并非锦上添花,而是负责任的LLM开发与部署的基础要求。
随着LLM在医疗、金融、客户服务等多领域应用场景的普及,隐私泄露风险被进一步放大,使强大的脱敏机制成为建立信任和推动应用的关键前提。LLM已突破实验室阶段,广泛应用于医疗、金融和客户服务等核心行业。这些领域涉及高度敏感数据(如患者记录、金融交易、个人客户信息),隐私泄露可能引发法律追责、声誉危机及用户信任崩塌等严重后果。在如此高风险背景下,相关行业的LLM应用需建立超越基础合规要求的高标准脱敏机制,以确保数据安全并维系公众信任。LLM在这些领域的成功应用,核心在于能否实现对敏感数据的有效保护。
核心概念定义
在 LLM 的背景下,厘清几个核心概念至关重要,因为它们在应用和合规性方面具有不同的含义。
- 数据匿名化 (Data Anonymization): 指不可逆地移除或模糊化 PII,使得个体无法被识别。对于 LLM,这主要应用于训练数据,以防止模型记忆和输出泄露。
- 数据假名化 (Pseudonymization): 指用假名替换 PII;此过程是可使用密钥解密的,在 LLM 环境中,假名化可用于关联用户交互或数据点而不暴露直接身份标识,必要时允许去假名化。
- 数据脱敏/掩码 (Data Masking): 指通过用非真实但结构相似的数据(如占位符、随机字符)替换敏感数据来隐藏它们。对于 LLM,这对于处理提示和输出至关重要,以防止 PII 暴露给模型或最终用户,同时保持上下文理解。数据掩码可以是可逆的,也可以是不可逆的。
- 去标识化 (De-identification): 这是一个更广泛的术语,包括匿名化、假名化以及其他移除或模糊化标识符的方法。其目标是防止数据与特定个体相关联。
这些术语常被混淆。在应用于 LLM 的训练数据、提示和生成输出时,理解它们之间的细微差别及其各自的重要性就显得尤为关键。例如,经过匿名化处理的数据(若能确保真正不可逆),对于某些依赖原始数据特定模式(即便这些模式不具识别性)的LLM微调任务而言,其效用可能会降低。假名化允许在受控条件下进行潜在的重新识别,这对于审计或特定分析任务可能很有必要;但如果密钥泄露,则会带来更高的隐私风险。至于掩码,尤其是用于提示的动态掩码,其目的是在保护敏感元素的同时,为LLM任务保留即时上下文的效用。因此,在为LLM选择脱敏策略之前,组织必须首先明确其应用目标和数据治理框架。盲目采用某种“一刀切”的方法,很可能无法达到理想效果。
值得注意的是,LLM 先进的推断能力正对匿名化的有效性构成挑战,因其可能将“匿名”数据重新关联至可识别个体。传统匿名化技术旨在使数据重新识别变得极为困难甚至不可能。然而,LLM 极擅长从海量数据中发现模式并进行推断。如果“匿名化”数据集仍保留足够的上下文线索或独特属性组合,强大的LLM便可能将这些数据点重新关联到特定个体,尤其是在结合外部辅助信息时。
LLM应用的核心数据脱敏技术
数据掩码 (Data Masking)
数据掩码,也称数据脱敏,是指通过占位符、随机字符或虚假数据替换敏感信息,同时保留其原有结构特征的过程。常用的技术手段包括:编辑(用通用值替换敏感数据)、替换(用相似但虚假的条目替换)、打乱(在列内重排数据顺序)、置空(用空值覆盖)以及日期老化(模糊化日期信息)。其核心目标是,在保护真实敏感数据的同时,为测试、受控访问等场景提供功能上可用的替代数据。例如,K2View强调数据掩码工具应确保格式保留和参照完整性,而Salesforce的Einstein Trust Layer则采用占位符文本进行掩码。
对于大语言模型(LLM)而言,格式保留至关重要。这能确保模型理解被掩码信息的类型,从而有助于维持对话上下文或训练数据的结构。参照完整性则确保,若“张三”被掩码为“Person_X”,那么此映射关系在整个数据集中保持一致。
基于模式与基于字段的Prompt掩码
Salesforce Einstein Trust Layer同时采用了基于模式和基于字段的掩码方法:基于模式的掩码通过模式匹配和机器学习技术检测如SSN(社会安全号码)等敏感数据,而基于字段的掩码则利用元数据识别Salesforce CRM中的敏感字段。基于模式的掩码依赖于数据的格式和邻近术语(例如,“SSN”字样出现在数字附近)。基于字段的掩码支持记录字段和相关列表中的合并字段。
基于模式的掩码对于LLM Prompt中的非结构化文本非常有用,因为这些文本中的敏感数据通常不位于预定义字段中。而基于字段的掩码更适用于LLM与结构化数据源交互的场景。选择哪种方法取决于数据的性质及其呈现给LLM的方式。然而,需要注意的是,没有任何模型能保证100%的检测准确性,尤其是在处理跨区域或多国数据时。
语义掩码与LLM文本效用保持
简单的编辑(例如,将姓名替换为“[已编辑]”)可能会干扰LLM的理解。语义掩码旨在用有意义的占位符(例如用“[姓名]”、“[地点]”等)替换PII(个人身份信息),这些占位符能告知LLM被移除信息的类型,从而保留句子结构和部分语义上下文,这对于LLM的性能和效用至关重要。例如,LegalGuardian项目使用NER(命名实体识别)和本地LLM,通过将实体替换为一致的占位符标签(如[PERSON_A]
)来掩码Prompt中的PII,以保持连贯性并允许后续的去掩码操作。一些方案也提及利用LLM进行PII发现,以补充基于规则的方法。
数据掩码技术从简单的编辑发展到语义化乃至LLM驱动的掩码,反映了在LLM应用中平衡隐私保护与精细上下文理解的日益增长的需求。早期的掩码可能仅关注简单地遮蔽数据。然而,LLM严重依赖上下文信息。如果掩码移除了过多的信息或破坏了句子结构,LLM处理输入或从数据中学习的能力就会受损。这推动了更复杂掩码技术的发展,如语义掩码,其中占位符保留了类别信息(例如,用通用标签如“[姓名通用]”替换特定名称)。此外,利用LLM本身进行PII发现,甚至建议上下文适当的掩码,显示出向更智能、更注重效用保持的掩码发展的趋势。
尽管基于模式的掩码对于LLM Prompt具有通用性,但其概率性意味着它并非万无一失,在高风险场景中需要额外的安全层或人工监督。基于模式的掩码使用正则表达式和机器学习来识别敏感数据。虽然对许多常见的PII类型有效,但这些方法可能产生误报(错误掩码非敏感数据)和漏报(遗漏实际PII),特别是在处理多样化的数据格式、新的PII类型或对抗性输入时。对于处理高度敏感信息的LLM应用,仅仅依赖自动化的基于模式的掩码可能是不够的。这意味着需要进行风险评估,并可能将其与其他技术、用户警告或人工审查流程(审查从潜在敏感、已掩码输入生成的输出)相结合。
掩码中的“参照完整性”概念对于LLM训练数据尤为关键。如果一个实体被不一致地掩码,LLM可能会学习到错误的关联或无法正确泛化。LLM通过识别数据中的模式和关系进行学习。如果一个真实实体(例如,“纽约市”)在同一数据集中有时被掩码为“[地点_A]”,有时又被掩码为“[地点_B]”,或者不同的真实城市都被掩码为通用的“[某个地点]”,那么LLM可能难以学习有意义的地理概念或关系。一致的掩码,即每个唯一的敏感项都获得一个一致的假名或占位符(例如,“纽约市”始终变为“LOC_ID_123”),有助于维护数据底层的关系结构。这对于LLM学习有用的表示而不记住实际PII至关重要,对数据效用和隐私保护都至关重要。
假名化 (Pseudonymization)
假名化是指通过假名标识符来替换个人可识别信息 (PII)。原始 PII 会被分开安全存储,只有在授权情况下才允许重新识别。与匿名化不同,假名化是可逆的。根据《通用数据保护条例》(GDPR),假名化处理后的数据仍被视为 PII。研究表明,假名化通常与其他技术(如数据掩码或加密)结合使用,并允许在安全环境中进行追溯。
在大型语言模型 (LLM) 的应用中,假名化可用于处理训练数据集,以便在不暴露原始 PII 的前提下跟踪数据贡献或来源。在用户与 LLM 交互时,用户 ID 可以在发送给模型前进行假名化处理。这种可逆性对于需要数据关联的场景至关重要,但如果映射密钥发生泄露,则会带来风险。
假名化在提供更高数据效用(例如用于 LLM 的纵向分析或调试)与保护隐私之间取得了微妙平衡。然而,其可逆性使得作为“附加信息”的映射密钥的安全性至关重要。相比之下,完全匿名化通常涉及不可逆的数据丢失或转换,这可能会降低数据在训练 LLM 或分析其行为(例如,分析同一匿名用户随时间推移的不同交互行为)方面的效用。假名化通过使用一致的假名替换标识符,从而允许进行这种数据链接。这意味着,例如,可以跟踪 LLM 基于特定(假名化)来源数据的学习轨迹,或分析用户(假名化后)与 LLM 驱动的聊天机器人的交互历史,以改进个性化服务。然而,GDPR 明确规定,由于可以使用“附加信息”进行重新识别,假名化数据仍属于个人数据。这对映射信息的安全保护提出了极高要求;一旦假名密钥泄露,整个数据集实际上会被去匿名化。
对于许多需要兼顾可追溯性和强隐私性的 LLM 应用而言,将假名化与其他隐私增强技术 (PETs) 相结合可能是最稳健的方法。例如,可以对假名化记录中的敏感属性进行数据掩码,或对基于假名化数据的分析应用差分隐私。假名化主要保护直接标识符。然而,与假名关联的数据内容仍可能包含敏感的准标识符或属性。在处理 LLM 训练数据时,如果用户的文本输入中仍包含姓名、位置或其他敏感细节,那么仅仅假名化用户 ID 可能是不够的。因此,采用多层隐私保护方法更为有效。例如,可以先假名化用户 ID,然后对与每个假名关联的文本内容应用数据掩码技术,以移除或模糊化文本中的 PII。对于经过此类假名化和数据掩码处理的数据进行分析时,可以对聚合结果应用差分隐私技术,以防止对假名化实体的身份推断。这种分层防御策略能提供比任何单一技术都更强的保护。
2.3 数据泛化 (Data Generalization)
数据泛化技术,如 k-匿名性、l-多样性和 t-贴近性,旨在通过降低数据精度来保护个人隐私。
- k-匿名性 (k-Anonymity): 确保数据集中每条记录基于其准标识符(QIs),至少与 k-1 条其他记录无法区分。这通常通过泛化(例如,用年龄范围替代确切年龄)或抑制 QIs 来实现,从而有效防止个体被单独识别。
- l-多样性 (l-Diversity): 作为 k-匿名性的扩展,此技术要求每个 k-匿名组内的敏感属性至少拥有 'l' 个不同的值,以抵御同质性攻击和背景知识攻击。
- t-贴近性 (t-Closeness): 进一步完善了隐私保护机制,确保每个组内敏感属性的分布与整个数据集中该属性的分布接近(在阈值 't' 之内)。这有助于防止属性泄露和偏斜攻击。
将 k-匿名性等传统泛化技术直接应用于 LLM 的非结构化文本数据时,会面临根本性的不匹配问题。这促使研究转向语义和上下文泛化,或开发新的风险评估框架。k-匿名性、l-多样性和 t-贴近性是为表格数据设计的,其中准标识符是明确定义的列 。然而,构成 LLM 训练数据主体的非结构化文本并没有这样清晰的列结构。在文本中,“准标识符”可能是主题、写作风格、提及的实体,甚至是罕见短语的微妙组合。直接应用传统泛化方法(例如,用更广泛的类别替换特定词语)会严重降低 LLM 训练所需的语言质量和信息内容,表明这种直接应用通常不切实际。因此,研究领域正转向:(a) 采用新框架,如在移除个人可识别信息后评估重识别风险;(b) 探索如何在保留语言结构的前提下“泛化”文本中的概念或实体,甚至可能利用 LLM 本身进行转述或抽象化处理。
2.4 数据交换、扰动与噪声添加 (Data Swapping, Perturbation, and Noise Addition)
这些技术旨在通过引入不确定性来打破敏感数据与个体之间的联系。
- 数据交换 (Data Swapping/Permutation): 在不同记录之间交换某些属性的值。对于 LLM,如果不会破坏语义连贯性,这可能意味着在文本片段中交换非 PII 细节,交换具有标识符值的属性(如出生日期)影响更大。
- 数据扰动 (Data Perturbation): 通过添加随机噪声或应用舍入数字等技术轻微修改原始数据。值的范围需要与扰动成比例。扰动基数过小可能导致匿名化效果不佳,而基数过大则会降低数据效用。
- 噪声添加 (Noise Addition): 有意添加随机值以模糊真实值,同时保留统计分布,这是差分隐私的基础,但是,添加过多噪声会破坏信息的智能性。对于 LLM,可以探索向词嵌入添加噪声或扰动句子结构,但必须仔细管理对语言质量和模型学习的影响,过多的噪声会使文本无法用于训练。
2.5 合成数据 (Synthetic Data)
合成数据指的是人工创建的数据集,它们在统计属性上复制原始数据,但不包含任何真实、可识别的个人信息。当生产数据不足或因其敏感性不宜直接使用时,合成数据便可作为替代方案。
对于大型语言模型(LLM),可以生成合成文本数据来扩充训练集。这在处理低资源语言或特定领域数据时尤其有用,同时能有效避免使用真实的敏感信息。其主要挑战在于确保合成数据具有足够的多样性和真实性,并且不会从生成过程或原始种子数据中继承不必要的偏见。
在LLM训练中对隐私和保真度的作用
研究表明,当模型训练需要保持原始数据格式时,虽然令牌化可能是首选,但合成数据提供了另一种重要选择。一些研究显示,由LLM生成的合成临床数据具有“显著的保真度”。还有研究提及,可以利用合成数据生成技术,创建出能模仿原始数据统计特性却不暴露敏感信息的人工数据集。例如,Red Hat的LAB方法就运用合成数据生成技术,以经济、安全的方式扩展领域知识,同时确保不包含个人身份信息(PII)。
因此,合成数据是训练LLM的强大工具,它能够在不暴露真实PII的前提下进行。如果这类数据是通过隐私保护技术(例如,基于原始数据的差分隐私模型)生成的,那么它可以提供强有力的隐私保障。同时,数据的保真度——即它模仿真实数据的程度——对于LLM学习有用的模式至关重要。
为LLM生成合成代码数据
与文本数据类似,我们也可以生成合成代码来训练LLM执行编程任务。有研究综述了利用LLM生成代码数据来训练代码智能模型的方法,探讨了LLM提示、代码执行验证以及大规模合成编码指令数据等技术。该研究也指出了确保数据保真度、避免偏见、保持多样性以及防止因对AI生成数据进行自我训练而导致“模型崩溃”等挑战。这种方法对于创建多样化的代码示例、覆盖边缘情况,或针对特定风格及新API生成代码非常有用,且无需依赖专有或敏感的真实代码库。验证(例如,代码能否正确编译和运行)是此过程中的一个关键步骤。
利用LLM生成合成数据来训练其他LLM或AI模型,会产生一种递归动态。尽管这在隐私保护和数据增强方面前景广阔,但如果管理不当,则可能引入“模型崩溃”的风险,或放大生成器LLM固有的偏见。LLM从数据中学习;如果它们学习的数据本身是由另一个LLM生成的,那么原始生成器模型的任何偏见、不准确性或局限性都可能传递给新模型,并可能被进一步放大。例如,如果用于生成合成医疗数据的LLM对某一特定人群存在轻微偏见,那么合成数据将反映这种偏见,而基于此数据训练的模型则会继承并可能强化这种偏见。如果不能持续引入新鲜、真实的(并经过适当脱敏的)数据,这种模型的“近亲繁殖”现象可能导致后续几代模型的质量和多样性下降。
合成数据生成,特别是与差分隐私等技术相结合时,为LLM数据脱敏提供了一种主动而非被动的方法——即通过“设计”来创造本质上隐私安全的数据。许多传统的脱敏技术(如对原始数据进行掩码处理或泛化处理)是被动地应用于现有敏感数据以降低其风险。相比之下,合成数据生成,尤其是当生成模型本身在训练时就采用了隐私保护措施(如差分隐私),或者从已经脱敏的数据集中学习时,能够创造出天生具备隐私性的数据。这意味着数据从一开始就不包含真实的PII,仅在统计特征上与真实数据相似。与试图完美净化复杂、真实的现实世界数据集相比,这种“设计隐私”的方法能更有效地抵御重新识别攻击。这对于LLM的预训练尤为重要,因为其所需的海量数据使得对原始数据进行彻底审查变得异常困难。
合成数据的“保真度”对LLM而言是一把双刃剑。高保真度意味着更好的模型训练效果,但如果合成过程本身缺乏完善的隐私保障,也可能意味着无意中复制敏感模式的风险更高。为了让LLM有效地从合成数据中学习,这些数据必须准确反映真实世界数据的统计特性和模式。如果合成数据过于简单或未能捕捉重要的细微差别,那么基于它训练的LLM性能将不佳。然而,如果合成数据过于忠实于原始敏感数据集,而生成过程本身又没有包含强大的隐私保证(如差分隐私),则存在合成数据可能无意中泄露原始数据集信息,甚至允许重建敏感细节的风险。这种内在的张力要求我们仔细校准合成数据的生成过程,以最大限度地提高其效用,同时严格确保隐私安全。
2.6 用于去标识化的令牌化技术
本文所讨论的令牌化,特指一种隐私保护技术。它通过将敏感数据替换为无实际意义的占位符(即“令牌”),来实现数据的去标识化。需要强调的是,此处的“令牌化”与大型语言模型(LLM)在文本处理过程中分解词元(tokens)的“令牌化”存在本质区别。原始敏感数据可以安全地存储在专门的“数据保险库”中,也可以通过特定算法实现无保险库的令牌生成(例如在处理信用卡号的场景中)。这种去标识化技术尤其适用于那些需要保留数据原有格式和结构的模型训练场景,能够有效保护传输过程中的结构化及非结构化数据。以Protegrity的无保险库令牌化(PVT)技术为例,它便是通过静态令牌表来提升系统的可扩展性。
在大型语言模型(LLM)的处理流程中,个人身份信息(PII)可以被替换为令牌进行后续处理。当需要还原这些原始数据时(例如,为了响应用户的请求),可以通过检索“数据保险库”或运用特定算法来重建。尤其需要注意的是,LLM应用场景下的“令牌化”实际上涵盖了两种截然不同的形式:一种是用于保障数据安全的PII替换令牌化,另一种则是语言学层面用于文本处理的令牌化。这两种令牌化的机制和最终目标均不相同。因此,开发者必须清晰地认识到这一区别:LLM自身所带的语言学令牌化功能并不具备隐私保护能力,真正的PII令牌化技术必须在前端数据处理流程中独立部署和实施。
在实时LLM应用中,与基于数据保险库的令牌化方案相比,无保险库方案通常展现出更优的扩展性且延迟更低。然而,其安全性高度依赖于所用算法的强度以及密钥的保密程度。基于数据保险库的方案需要通过数据库查询来完成令牌的转换,这在高吞吐量的应用场景(例如大规模聊天机器人服务)中,较易引发性能瓶颈。无保险库方案由于无需存储每一个令牌与原始数据的映射关系,而是通过算法直接动态生成令牌,因此能够显著提升处理速度和系统的整体扩展性。尽管如此,一旦其核心算法存在缺陷,或者用于生成令牌的静态数据表(如果采用)发生泄露,便可能导致整个令牌化系统面临失效的风险。综上所述,在部署LLM时,必须在性能、可扩展性与安全模型之间进行审慎的权衡。
表1:核心数据脱敏技术对比
技术 | 原理 | 关键特性 | 典型用例 (训练/提示/输出) | 优点 | 缺点 | 可逆性 | 对LLM的影响 |
---|---|---|---|---|---|---|---|
数据掩码 (Data Masking) | 使用非真实但结构相似的数据替换敏感数据。 | 保持数据格式和上下文;语义掩码可保留信息类型。 | 训练数据(静态掩码);提示和输出(动态掩码)。 | 保护敏感数据,同时允许功能性使用;可定制性高。 | 可能无法完全准确检测所有个人身份信息 (PII);过度掩码可能降低数据效用。 | 可逆或不可逆,取决于具体方法。 | 中到高,取决于掩码策略;语义掩码旨在最大化数据效用。 |
假名化 (Pseudonymization) | 使用假名替换个人身份信息 (PII),并将原始 PII 安全存储。 | 允许数据链接和追踪,同时隐藏直接身份标识。 | 训练数据(用于追踪数据来源);用户交互(用于关联会话)。 | 保持数据分析价值,允许在必要时重新识别身份。 | 替换后的数据仍被视为 PII;存在密钥泄露风险。 | 可逆。 | 高,因为保留了大部分原始数据结构和关联性。 |
数据泛化 (Data Generalization) (如 k-匿名, l-多样性, t-贴近性) | 降低数据精度,使得个体记录难以区分。 | 对非结构化文本应用复杂,难以定义准标识符。 | 主要用于结构化训练数据;在文本数据上的应用尚处于研究阶段。 | 提供统计意义上的隐私保证。 | 可能显著降低数据粒度和效用;难以直接应用于文本数据。 | 不可逆。 | 低到中,应用于文本数据可能导致严重信息损失。 |
数据交换/扰动/噪声添加 (Data Swapping/Perturbation/Noise Addition) | 通过交换记录中的数值、轻微修改数据或添加随机噪声来模糊真实值。 | 直接应用于文本的语义核心具有挑战性;可能破坏语言结构。 | 主要用于元数据或结构化输入;应用于文本数据时需谨慎。 | 引入不确定性,增加重新识别个体的难度。 | 可能严重影响数据质量和模型学习效果。 | 通常不可逆(扰动/噪声添加);数据交换理论上可逆但操作复杂。 | 低到中,取决于扰动程度;对文本数据的效用影响较大。 |
合成数据 (Synthetic Data) | 创建在统计特性上模仿原始数据的人工数据。 | 可用于在保护隐私的前提下扩充训练数据;数据保真度是关键。 | 训练数据(尤其适用于缺乏真实数据或数据高度敏感的场景)。 | 从设计上保护隐私;可控制数据分布和消除偏差。 | 生成高质量、高保真度的合成数据具有挑战性;可能继承生成模型的偏见。 | 不适用(因为是生成新数据)。 | 中到高,取决于合成数据的质量和保真度。 |
令牌化 (Tokenization) | 使用无实际意义的令牌替换敏感数据元素。 | 保持数据格式和结构,令牌本身不包含有价值信息。 | 训练数据、提示和输出(尤其涉及支付或身份验证信息时)。 | 提供强大的数据保护,尤其是在数据传输过程中;可扩展性好(无保险库方案)。 | 有保险库方案中,保险库可能成为性能瓶颈;无保险库方案的安全性依赖于算法和密钥管理。 | 可逆(通过保险库或特定算法)。 | 高,因为非敏感部分的数据保持不变,令牌可被大型语言模型 (LLM) 视为特定类别。 |
面向大语言模型的先进隐私增强技术
除核心技术外,一些先进的隐私增强技术(PETs)也开始在大型语言模型(LLM)领域展现其潜力,旨在提供更强的隐私保护。
差分隐私 (Differential Privacy - DP)
差分隐私是一种严格且可数学证明的隐私保障机制,它确保任何分析(或模型训练)的输出结果都不会泄露数据集中特定个体的信息。实现这一目标通常依赖于向原始数据、查询响应或模型训练过程(例如梯度更新)中注入经过精确校准的噪声。
在LLM微调与检索增强生成中的应用
在LLM微调方面,有研究系统地探究了差分隐私对全量微调及参数高效微调(PEFT
)方法(如LoRA
)的影响,并评估了模型的效用和经验性隐私风险(通过数据提取攻击和成员推断攻击衡量)。该研究发现,差分隐私虽可能降低模型效用,但能显著减少信息泄露和成员推断攻击的风险。对于检索增强生成(RAG
)系统,相关研究 提出了DP-RAG
框架。该框架旨在为LLM在利用外部文档获取上下文信息时提供差分隐私保障,以应对从这些文档中泄露机密数据的风险。
权衡:效用与隐私预算 ()
应用差分隐私需要在隐私预算(通常用, 表示)与数据效用之间进行关键权衡。隐私预算量化了隐私泄露的风险:值越小,隐私保护强度越高,但这通常意味着需要注入更多噪声,可能导致模型效用或准确性显著下降。有研究 也指出,类似差分隐私这样的严格隐私措施可能会影响模型的个性化和泛化能力。因此,在LLM的实际应用中,设定一个合适的值至关重要。
差分隐私正从理论概念逐步转变为LLM隐私保护的实用工具,尤其在微调场景中展现出潜力,尽管挑战依然存在。其在检索增强生成(RAG)这类复杂流程中的应用,则仍是活跃的研究方向。过去,差分隐私主要被视为一个强大的理论框架。如今,已有研究 展示了将差分隐私应用于LLM微调的实证工作,衡量了在特定攻击下的具体效用和隐私权衡,这标志着其向实际应用的转变。另有研究 通过为RAG系统(因其涉及外部数据检索,比标准微调更复杂)概念化差分隐私,进一步推动了这一边界。这表明,尽管差分隐私在基础LLM训练中的应用已逐渐成熟,但其在更动态、更复杂的LLM架构中的应用仍是一个新兴的前沿领域。
在差分隐私中,“隐私预算”不仅是技术参数,更是一项策略性决策,需要综合考量风险偏好、法规要求及特定LLM应用场景,因此不存在通用的值。较低的值能提供更强的隐私保护,但会引入更多噪声,可能显著降低LLM的性能(如准确性、连贯性)。相反,较高的值可能带来更好的模型效用,但隐私保护较弱。因此,值的选择是一项复杂的权衡。例如,处理低敏感度数据或生成创意文本的LLM或许可以接受较高的值;而分析敏感医疗数据 的LLM则需要设定极低的值,即便这可能牺牲部分洞察的精确性。这一决策过程不仅需要数据科学家的参与,还需法律和伦理领域专家的共同协作。
差分隐私在LLM中成功应用的关键,在于能否开发出在既定隐私预算下最大限度减少效用损失的技术。这可能涉及更复杂的噪声添加机制,或将差分隐私与其他隐私增强技术(PETs)相结合。差分隐私的核心挑战在于其对模型效用的影响——如果应用差分隐私导致LLM无法有效执行其预定任务,那么这项技术便难以被实际采纳。相关研究,例如 中针对不同微调方法的研究,或 中针对具有差分隐私的个性化联邦学习的研究,正致力于探索更智能的差分隐私应用方法。这些方法可能包括更具选择性的噪声添加策略,或将差分隐私与联邦学习(其数据去中心化特性有助于减少中央所需的噪声量)及合成数据(在生成过程中应用差分隐私)等技术融合。最终目标是在隐私保护与模型效用之间找到更优的平衡。
联邦学习 (Federated Learning - FL)
联邦学习允许在多个持有本地数据的去中心化设备或服务器上共同训练一个共享模型,且无需交换原始数据。训练过程中,仅有模型的更新信息(如梯度)会被集中聚合。这种不共享原始数据的训练方式,对于保护隐私至关重要。在大型语言模型(LLM)领域,联邦学习可用于在用户设备上训练或微调模型(例如,个性化键盘输入建议的LLM),也可用于在不同组织持有的敏感数据集上进行训练(例如,多家医院协作训练医疗LLM,而无需汇集各自的患者记录)。
联邦学习降低了因集中聚合数据而导致数据泄露的风险。为获得更强的隐私保障,联邦学习还可以与其他隐私增强技术(PETs)相结合,例如对模型更新应用差分隐私,或使用同态加密来安全地聚合更新。
然而,联邦学习也面临一些挑战,主要包括通信效率、客户端数据的异构性以及潜在的安全漏洞(例如模型投毒、针对更新的推理攻击等)。
联邦学习在利用设备端数据进行LLM个性化,或在受监管行业进行协作式LLM训练方面,展现出广阔的应用前景。然而,其有效性在很大程度上取决于如何有效管理数据的异构性以及确保模型更新的安全性。联邦学习的核心优势在于能够直接在去中心化的数据源上进行训练,从而有效解决了集中存储数据可能引发的隐私问题。因此,联邦学习非常适用于以下场景:一是用户希望基于本地数据(如智能手机上的个人数据)个性化LLM,同时确保这些数据不离开设备;二是多个组织(如医院、银行)希望协作构建更强大的LLM,但因法律或竞争原因无法直接共享其原始敏感数据。然而,不同设备或数据孤岛上的数据通常具有非独立同分布(non-IID)的特性。这种数据异构性可能导致单个全局模型难以在所有客户端上都取得理想的性能表现。个性化联邦学习等技术应运而生,旨在解决这一挑战。此外,尽管联邦学习不直接共享原始数据,但模型更新本身仍可能间接泄露本地数据的信息。因此,需要对这些更新采取额外的保护措施,例如应用差分隐私技术。
联邦学习与多模态LLM的结合,带来了新的复杂性与机遇,尤其是在如何从多样化、分布式的多类型数据(如文本、图像、音频)中高效且私密地学习方面。多模态LLM需要从多种数据类型的组合中学习。当联邦学习应用于此类模型时,意味着不同的客户端可能拥有不同的可用数据模态,或者在同一模态内数据的分布也可能存在差异。例如,在一个用于构建多模态健康LLM的联邦学习系统中,一家医院可能拥有丰富的文本病历和一些X射线图像,而另一家医院则可能拥有更多的MRI扫描数据和相对简略的文本记录。要有效聚合来自这些多样化多模态数据源的模型更新,需要仔细设计模型架构(特别是不同模态的融合方式),并明确不同模态的更新在服务器端应如何加权和组合。针对多模态LLM的DP-FPL研究工作(参考文献49),便是应对这些特定挑战的早期探索,其目标是在联邦学习环境下,为这类复杂模型在个性化、泛化能力和隐私保护三者之间取得平衡。
表2:面向LLM的先进隐私增强技术 (PETs) 概览
PET 技术 | 核心原理 | 在 LLM 中的应用 (训练/微调/推理/RAG) | LLM 隐私保护的主要优势 | LLM 应用的当前挑战/局限性 | 代表性研究/案例 |
---|---|---|---|---|---|
差分隐私 (DP) | 通过添加校准噪声,提供个体数据不被泄露的数学保证 | 训练/微调(梯度扰动),RAG(文档检索/上下文学习),输出分析 | 强大的、可证明的隐私保护,防止模型记忆和成员推断 | 效用损失(尤其在低隐私预算下),难以应用于复杂文本结构,对超参数敏感 | DP-RAG 55, LLM 微调中的 DP , DP-FPL |
同态加密 (HE) | 允许直接对加密数据进行计算而无需解密 | 推理(“盲 AI”,加密提示/嵌入),联邦学习中的安全聚合 | 提供极强的隐私保护,服务器无法访问明文数据 | 计算开销巨大,尤其对于FHE和复杂LLM操作;非线性层处理困难 | GPU 加速 HE 研究 , 等变加密 (EE) |
联邦学习 (FL) | 在去中心化数据源上训练模型,不交换原始数据,仅聚合模型更新 | 训练/微调(利用边缘设备或跨组织数据),个性化 LLM | 减少中央数据泄露风险,适用于数据孤岛和设备端个性化 | 通信开销,数据异构性,模型更新可能泄露信息,易受投毒攻击 | 个性化联邦提示学习 , 与 DP/HE 结合 |
安全多方计算 (SMPC) | 允许多方在不泄露各自私有输入的情况下联合计算一个函数 | 理论上可用于隐私保护推理或训练,但对 LLM 而言通常过于复杂 | 强隐私保证,输入数据对其他方保密 | 通信和计算开销非常高,对于大规模 LLM 不切实际 | 主要用于较小规模或特定子任务 |
合成数据 (结合 PETs) | 生成统计上相似但不含真实 PII 的数据,生成过程可融入 DP 等 PETs 5 | 训练/微调,特别是当真实数据稀缺或高度敏感时 | 从源头上避免使用真实敏感数据,可控制数据属性 | 确保合成数据的保真度和多样性具有挑战性,可能放大偏见 | 使用 LLM 生成合成临床数据 , Betterdata 的 DP 合成数据 |
LLM生命周期中的数据脱敏实施
数据脱敏并非一次性操作,而是贯穿 LLM 应用整个生命周期的持续过程。从训练数据准备,到实时处理用户提示和模型输出,每一个环节都需要周密的策略和严格的执行。
LLM训练数据脱敏
LLM 的训练数据规模庞大且来源多样,其中可能无意间包含个人身份信息 (PII)。主要挑战包括:数据规模使得人工审查不切实际;在非结构化文本中准确识别所有 PII 难度较高;以及如何确保脱敏过程不破坏模型学习所依赖的模式。此外,“维度灾难”现象易导致个体记录具有唯一性,从而增加了数据脱敏的难度。
对模型训练效果和偏见的影响 (Impact on Model Training Effectiveness and Bias)
这是一个关键的权衡问题。过于激进的脱敏可能会削弱 LLM 学习语言细微差别、理解上下文或执行特定任务的能力;反之,脱敏不足则会带来隐私泄露的风险。如果脱敏处理不当,原始数据中存在的偏见也可能被延续甚至放大。
LLM 预训练数据集规模庞大,必须依赖自动化技术进行脱敏。然而,目前针对非结构化文本的 PII 自动检测技术尚不完善,组织因此必须正视并妥善管理由此产生的残余风险。LLM 的训练数据量可达数万亿个 token。对如此庞大的数据集进行手动审查或脱敏是不现实的。因此,自动化的 PII 检测和移除/掩码工具至关重要。然而,自动 PII 检测并非百分之百准确,尤其是在处理复杂、嘈杂、多语言或新兴文本环境时。这意味着即便尽最大努力,仍可能遗漏某些 PII,或错误标记非 PII 内容。因此,组织必须接受一定程度的残余风险,并实施下游保障措施,例如输出过滤、仔细评估模型的记忆效应等。
“上下文匿名化”是 LLM 训练中的一个核心概念。它主张超越简单的 PII 编辑,采用更复杂的技术手段,在移除标识符的同时,保留 LLM 有效学习所必需的语言结构和语义关系。这很可能需要借助 LLM 本身或先进的自然语言处理技术。LLM 通过分析词语和短语在上下文中的出现模式来进行学习。若 PII 的移除(例如,将所有名称替换为“[NAME]”)过度干扰了这种上下文——比如导致语句在语法上不自然,或丢失了那些虽非 PII 但对理解语义关系至关重要的信息——模型的性能便会受损。“上下文匿名化”旨在以一种方式替换 PII:即使特定指称被模糊化,句子在语言学角度上仍然保持自然流畅和信息丰富。例如,与其将“Acme 公司的首席执行官张三去了巴黎”简单替换为“[人物A],[组织C]的成员,前往某地”,上下文匿名化会力求更优的表达,比如:“[某组织]的[某职位]前往了[某城市]”。这样的处理方式既模糊了具体指称,又在语言层面保持了句子的自然流畅与信息量,从而保留了对 LLM 学习有价值的角色和关系。这显然比简单的掩码技术更为先进。
LLM提示与输出的脱敏
这部分聚焦于动态数据的处理——即用户向 LLM 发出的查询以及 LLM 生成的响应。实时性能是此环节的关键考量。
实时掩码和编辑技术 (Techniques for Real-time Masking and Redaction)
诸如 Langfuse 等工具允许通过自定义掩码函数,在数据发送到服务器之前,对所有事件的输入和输出进行精确的追踪数据控制。Salesforce Einstein Trust Layer 则在将提示发送给 LLM 前识别并掩码敏感信息,随后对 LLM 的响应进行去掩码处理。Kong AI Gateway 能够对入站请求和出站响应进行净化。这些技术通常综合运用模式匹配、命名实体识别(NER)和占位符替换等方法。
确保上下文保留和响应质量 (Ensuring Context Preservation and Response Quality)
LLM 提示和输出的脱敏通常需要一种“对称”方法:首先对提示中的 PII 进行掩码或令牌化处理,然后 LLM 的响应(可能包含占位符)在呈现给用户之前,需要进行相应的去掩码或去令牌化操作。这无疑增加了状态管理和密钥安全方面的复杂性。例如,用户提示“张三目前所在的城市纽约的天气怎么样?”被掩码为“USER_1 目前所在的城市 CITY_1 的天气怎么样?”并发送给 LLM。LLM 可能会回应:“USER_1 所在的 CITY_1 天气晴朗。”为了使这条响应对原始用户有意义,系统需要能将“CITY_1”准确映射回“纽约”,并将“USER_1”映射回“张三”。这就要求在交互过程中安全地存储从原始 PII 到占位符的映射关系,并确保只有授权用户才能接收到去掩码的响应。这不仅增加了一层架构复杂性,而且一旦映射存储库遭到破坏,还会带来潜在的安全漏洞。
提示脱敏技术的选择,可能因所使用的特定 LLM 而异,因为不同模型对上下文变化的敏感度不尽相同。有研究发现,在匿名化提示时:“Llama 3.3:70b 在简单实体掩码下表现最佳,而 GPT-4o 则受益于上下文线索。”这是一个重要的发现,它表明并不存在一种通用的“最佳提示掩码方法”。一些 LLM 模型足够强大,能够处理简单的占位符;而另一些模型则可能需要更具描述性(即包含更多上下文信息)的占位符,才能维持原有的性能水平。这意味着组织可能需要根据其选用的 LLM 提供商或具体模型,来试验和调整不同的提示脱敏策略,这无疑为实施和测试过程增加了额外的复杂性。
利用LLM执行匿名化任务
LLM 本身也可以作为脱敏流程中的有效工具。它们可用于命名实体识别(NER)以辨识 PII,通过重写文本在保留原意和上下文的同时移除 PII,甚至能基于上下文检测出训练数据中未明确定义的新实体。此外,LLM 还能生成用于匿名化处理或模型训练的合成数据。与专门的令牌分类模型相比,LLM 的功能更为全面,但其处理速度较慢,资源消耗也更大。
然而,LLM 在执行匿名化任务时也存在其固有的局限性。它们可能比专门的 NER 模型更慢,且资源消耗更大。它们也可能出错,特别是规模较小的模型,或是在处理边缘案例(如不常见的名称、外来词、意外格式)时。一致性也可能是一个问题,有研究指出,在某些 NER 任务上,LLM 的表现甚至可能不及早期的统计模型。对于需要处理大批量数据的实时匿名化场景,成本也是一个不容忽视的因素。
“LLM 辅助匿名化”正成为一个日益显著的趋势。它利用 LLM 执行复杂的 PII 检测、上下文重写或合成数据生成等任务,但这通常需要与处理简单任务时更传统、高效的方法相结合,或辅以人工监督来确保质量。LLM 提供了复杂精密的处理能力,例如理解上下文以识别细微的 PII,或重写句子以在保留原意的同时移除 PII。这些能力超出了简单的基于规则或传统机器学习模型的范畴。然而,LLM 的计算成本高昂,且处理速度可能较慢。对于常见 PII 类型(如信用卡号或电子邮件地址)的大容量、实时匿名化需求,传统的正则表达式或专门的 NER 模型可能依然是更高效的选择。这揭示了一种混合策略:将 LLM 用于处理“疑难杂症”(如复杂的 PII、上下文重写、合成数据生成),而将更轻量级的方法用于批量、直接的 PII 检测。此外,人工参与评估 LLM 的匿名化输出结果也至关重要,尤其是在处理边缘案例时。
针对匿名化任务微调更小、更专业的 LLM,正逐渐成为一种有效途径。这种方法可以在不承担大型模型全部成本和资源负担的情况下,获得其部分优势(如上下文理解能力),这有望推动高级匿名化技术的普及应用。诸如 GPT-4 这样的超大型 LLM 可以零样本执行匿名化任务。然而,将这些大型模型应用于每一项匿名化任务可能成本过高且效率低下。研究显示,当前的一个趋势是针对匿名化或 PII 检测等特定任务,对规模更小、更专业的开源 LLM(例如 Llama 3.1-8B 或 Mistral-7B)进行微调。这种方法通常涉及知识蒸馏技术,旨在创建更易于部署(可在性能较弱的硬件上运行,甚至在本地运行)的模型,同时仍然保留有效匿名化所必需的良好上下文感知能力。这能使更广泛的组织有机会运用由 LLM 驱动的先进匿名化技术。
LLM 数据脱敏工具与平台
选择合适的工具和平台是成功实施 LLM 数据脱敏策略的关键。市场上已有多种开源及商业解决方案可供选择。
开源工具与框架
开源社区为 LLM 数据脱敏提供了多样化的选择,这些工具通常具有高度的灵活性和可定制性。
- Elara: 一款简洁的开源工具,通过编辑个人身份信息 (PII) 来匿名化 LLM 提示。其核心功能依赖
urchade/gliner_multi_pii-v1
模型进行 PII 检测。 - ARX Data Anonymization Tool: 支持 k-匿名、l-多样性、t-贴近性等多种隐私模型,并提供风险分析和重识别测试。该工具适用于研究、医疗保健和公共数据共享等场景,但初学者配置起来可能较为复杂。
- Google TensorFlow Privacy: 一个用于训练具有差分隐私的机器学习模型的框架,能够与 TensorFlow 无缝集成。
- LLM Guard: 一套开源工具(计划推出商业版),用于检测、编辑和净化 LLM 的提示与响应。它能够匿名化 PII、编辑机密信息、抵御提示注入等攻击,并针对 CPU 进行了成本优化,且与具体模型无关。该工具使用
BERT_LARGE_NER_CONF
等模型进行 PII 识别。 - pyCanon: 一个 Python 库,用于评估 k-匿名、l-多样性、t-贴近性等隐私保护技术的参数,以验证 LLM 匿名化措施的有效性。
- spaCy: 一个广受欢迎的自然语言处理 (NLP) 库,常用于自定义匿名化解决方案中的命名实体识别 (NER) 任务。
- MITIE: 一款命名实体识别 (NER) 工具包。在某项研究中,其在处理分类样本较少的类别时,表现优于 spaCy。
- Presidio: 微软推出的开源匿名化工具箱。
- GLiNER: 一种仅包含编码器的模型,用于零样本命名实体识别 (NER),其性能可与大型语言模型 (LLM) 相媲美。
- Bram-code/LLM-anonymization: 提供用于匿名化、假名化、文本简化、实体提取和评估的 Python 实用程序。
许多上述工具(如 ARX、TensorFlow Privacy、LLM Guard)及基于 spaCy/GLiNER 的定制化方案均可用于 LLM 训练数据的匿名化。Elara 主要针对 LLM 提示,但其底层的 PII 检测能力具有更广泛的适用性。
LLM 数据脱敏的开源领域发展迅速,既有通用匿名化工具被改造应用于 LLM 场景,也有针对 LLM 特性的新工具不断涌现。这些工具通常利用预训练的 NER 模型,乃至更小型的 LLM。例如,ARX 是一款通用数据匿名化工具。而 Elara 和 LLM Guard 等新工具则专为 LLM 交互(提示、响应)设计。LLM Guard 使用 BERT_LARGE_NER_CONF 等 NER 模型,Elara 采用 urchade/gliner_multi_pii-v1 进行 PII 检测,均表明其依赖现有的 NLP 能力。像 pyCanon 这样用于评估匿名化效果的库的出现,标志着该生态系统正日趋成熟。这反映出该领域充满活力,开发者们不仅在构建新方案,也在针对 LLM 的独特挑战改造现有方案。
许多开源工具更偏向于框架或库,而非开箱即用的解决方案,需要大量的集成工作和专业知识方能有效部署,对于复杂的 LLM 训练管道尤其如此。TensorFlow Privacy 是一个供开发人员将差分隐私构建到其模型中的库。LLM Guard 可以作为库或 API 集成。ARX 的配置可能很复杂。尽管开源工具提供了灵活性和透明度,但要将其有效应用于大规模 LLM 数据脱敏,通常需要经验丰富的数据工程师和 MLOps 团队来构建稳健的流程、自定义规则并管理整个脱敏过程,特别是在处理训练数据时。
商业平台与解决方案
商业市场也提供了多种针对 LLM 数据脱敏的平台和解决方案,它们通常提供更完善的功能和企业级支持。
- K2View: 采用基于实体的方法及其专利的 Micro-Database™ 技术,利用 GenAI LLM 进行 PII 发现,支持静态和动态掩码及实时匿名化,适用于处理敏感客户数据的大型企业。
- Salesforce Einstein Trust Layer: 在提示发送给 LLM 前识别并掩码敏感数据(PII、PCI),之后对响应进行去掩码。采用基于模式(机器学习)和基于字段(Salesforce CRM 元数据)的检测方法。
- Protect AI: 提供 LLM Guard(开源,计划推出商业版)。
- Kong AI Gateway: 提供 PII 清理功能,作为 LLM 流量的策略执行点,拦截请求和响应。
- Tonic Textual: 被一家欧洲税务机构用于在非结构化数据中检测和匿名化 PII,以支持 LLM 工作流程;支持自托管和特定语言处理。
- 其他企业级工具: Broadcom Test Data Manager、IBM InfoSphere Optim、Informatica Persistent Data Masking、Datprof Privacy 等是成熟的企业数据匿名化工具,可能适用于 LLM 数据场景。
- 云平台: Azure AI、AWS SageMaker、Google Cloud AI Platform 等云平台提供了管理、微调和部署 LLM 的生态系统,通常包含或支持脱敏功能,并具备企业级安全性。Red Hat OpenShift 则支持混合云环境。
对于 LLM 微调数据的匿名化,云平台提供了 MLOps 管道,可将匿名化作为其中一个步骤。例如,DATEV 公司便利用 AWS/Databricks 及后续的 Azure,对其基于 Transformer 的 NER 模型所处理的客户反馈进行匿名化,然后再进行分析。
商业解决方案日益将 PII 检测和掩码功能直接嵌入 LLM 网关或信任层(如 Salesforce、Kong),这表明业界已认识到,数据脱敏需成为 LLM 交互流程的固有组成部分,而非事后补救措施。Salesforce Einstein Trust Layer 和 Kong AI Gateway 即为典型示例。它们拦截流入和流出 LLM 的数据,实时执行脱敏。这种架构模式反映出市场共识:为确保 LLM 安全处理潜在的敏感实时数据,必须将隐私控制内置于 LLM 服务基础设施中,而非仅仅依赖用户预先清理输入,或由应用开发者为各用例实施定制化方案。“网关”方法旨在提供集中的控制和策略执行点。
提供自托管脱敏解决方案(如 Tonic Textual)以及支持特定语言的能力,是商业工具的关键差异化优势,尤其对于有严格数据驻留要求或处理非英语数据的组织而言。某欧洲税务机构的案例研究凸显了其对自托管方案及特定语言准确处理的需求。基于云的 LLM 和脱敏服务可能涉及数据跨境传输,或无法为所有语言提供最佳支持。因此,提供本地/自托管部署选项及强大的多语言能力的商业工具,能满足那些无法使用纯云或以英语为中心方案的市场的关键合规与运营需求。
Langfuse:LLM 敏感数据脱敏
Langfuse 是一个 LLM 应用的可观察性平台。其掩码功能允许用户通过传递给客户端构造函数的自定义掩码函数,精确控制发送至其服务器的追踪数据。所有事件的输入和输出在传输前均会经过此函数处理。Langfuse 支持使用正则表达式和外部库(如 llm-guard)进行基于 NER 的 PII 移除。
此功能对于确保提示或 LLM 响应中的敏感数据不被记录或暴露在追踪数据中至关重要,这在监控 LLM 性能和行为时,对保护隐私和确保合规性发挥着关键作用。其核心在于保护可观察性管道内的数据。
在 Langfuse 这类 LLM 可观察性工具中集成强大的掩码功能,突显了保护数据的迫切需求——不仅在直接的 LLM 交互中,也包括周边的 MLOps 生态系统(日志记录、追踪、监控)。LLM 应用除了提示和响应外,还会生成大量数据,如追踪、日志、性能指标等。这些运营数据对调试、监控和改进 LLM 至关重要。然而,若这些数据包含来自用户输入或模型输出的 PII,便会引发新的隐私风险。Langfuse 的掩码功能允许开发者在数据发送至 Langfuse 服务器进行可观察性分析前对其进行净化,从而直接解决了这一问题。这突显了一个更广泛的原则:LLM 数据脱敏必须全面,不仅覆盖核心模型交互,还应包括处理 LLM 相关数据的所有辅助系统。
Langfuse 采用用户自定义掩码函数的方法,这既提供了灵活性,也明确地将有效进行 PII 检测和编辑的责任赋予了开发者,要求他们了解 PII 类型和恰当的掩码技术。Langfuse 提供了掩码的机制(即传递自定义函数的能力),但不一定提供所有类型 PII 检测的完整逻辑(尽管它展示了使用正则表达式或 llm-guard 等库的示例)。这意味着使用 Langfuse 的开发者必须针对其特定数据和 PII 类型设计并实现有效的掩码函数。若其自定义函数存在缺陷或不完整,敏感数据仍可能泄露至 Langfuse 的追踪数据中。这凸显了对开发者进行数据隐私教育以及对这些自定义掩码实现进行稳健测试的必要性。
Salesforce Einstein 信任层:详细解析
Salesforce Einstein Trust Layer 在 LLM 交互前,采用基于模式(高级模式匹配、针对姓名/公司的机器学习)和基于字段(Salesforce CRM 字段元数据)的方法,识别并掩码提示中的敏感 PII/PCI 数据。它用占位符替换敏感数据,LLM 借此保持上下文理解,随后对响应进行去掩码处理。审计追踪信息存储在 Data Cloud 中。其局限性包括:无法保证 100% 的准确性;跨区域和多国用例可能影响检测效果;基于字段的掩码亦有特定限制。启用掩码时,上下文窗口会受限。
这是大型 CRM 生态系统中一个典型的商业实践,展示了如何将脱敏作为“信任层”集成,以便更安全地融合生成式 AI 功能与客户数据。
Einstein Trust Layer 的双重方法——基于模式处理非结构化数据,基于字段处理结构化 CRM 数据——为应对 LLM 在企业环境中常遇到的混合数据类型,提供了一个实用的策略范例。企业(如 Salesforce)中的 LLM 不仅处理自由格式文本提示,通常还与结构化 CRM 数据(如客户记录、销售数据)交互,这些数据或被提取到提示中,或用于 RAG。Einstein Trust Layer 利用基于字段的掩码能力(借助现有关于敏感字段的 CRM 元数据),为源自结构化数据的已知敏感信息提供了一种更具确定性且可能更准确的掩码方法。这与基于模式的掩码互为补充,后者用于处理提示非结构化部分或管控较松散来源数据中可能出现的 PII。这种混合方法比单一方法更为稳健。
明确提及局限性——例如 PII 检测并非 100% 准确,以及启用掩码时上下文窗口会缩小——这突显了即使是复杂的商业解决方案,也必须在隐私、效用和性能之间进行权衡。Salesforce 坦承其 PII 检测并非万无一失,且启用掩码可能导致 LLM 上下文窗口缩小。这是一个重要的认知。它表明数据脱敏,即便采用先进的机器学习技术,也非完美之策,且涉及工程上的妥协。例如,上下文窗口缩小可能是由掩码/去掩码的处理开销或占位符计数方式所致。这种透明度对用户极具价值,因为它有助于用户设定切合实际的期望,并了解启用这些隐私功能对 LLM 性能的潜在影响。这再次印证了隐私工程中“没有免费午餐”的观点。
表3:LLM 数据脱敏工具与平台选介
工具/平台名称 | 类型 (开源/商业/服务) | LLM 的关键脱敏特性 | 支持的技术 | 代表性LLM应用/集成或语言支持 |
---|---|---|---|---|
Elara | 开源 | LLM 提示 PII 编辑 | NER (urchade/gliner_multi_pii-v1) | LLM 提示匿名化 |
ARX Data Anonymization Tool | 开源 | 训练数据匿名化,风险分析 | k-匿名, l-多样性, t-贴近性 | 研究、医疗保健、公共数据共享 |
Google TensorFlow Privacy | 开源框架 | 差分隐私模型训练 | 差分隐私 | TensorFlow 集成 |
LLM Guard | 开源 (有商业版计划) | 提示/响应检测、编辑、净化;PII 匿名化;机密编辑 | NER (BERT_LARGE_NER_CONF), 正则表达式 | 模型无关,可集成到 Azure OpenAI, Bedrock, Langchain 等 |
pyCanon | 开源库 (Python) | 评估匿名化技术参数 | k-匿名, l-多样性, t-贴近性 | 用于验证 LLM 匿名化效果 |
K2View | 商业 | PII 发现 (GenAI LLM),静态/动态掩码,实时匿名化 | 基于实体,Micro-Database™ | 大型企业敏感客户数据处理 |
Salesforce Einstein Trust Layer | 商业服务 (Salesforce) | 提示中 PII/PCI 掩码/去掩码,审计跟踪 | 基于模式 (ML),基于字段 (元数据) | Salesforce CRM 集成 |
Kong AI Gateway | 商业 | LLM 流量 PII 清理 (请求/响应) | 策略驱动 | API 网关集成 |
Tonic Textual | 商业 | 非结构化数据 PII 检测与匿名化 | 未明确,但支持自托管和特定语言 | 税务机构 LLM 工作流程 |
Langfuse | 商业服务 (可观察性平台) | 追踪数据中的敏感信息掩码 (输入/输出) | 自定义掩码函数,正则表达式,外部库 (llm-guard) | LLM 应用监控与追踪 |
Azure AI, AWS SageMaker, Google Cloud AI Platform | 商业云平台 | 提供 LLM 微调和部署环境,支持集成脱敏能力 | 多种,取决于具体服务和配置 | 企业级 LLM 应用开发与部署 |
LLM数据脱敏的挑战与局限
尽管数据脱敏技术在持续进步,但在大型语言模型(LLM)应用中,其实施仍面临诸多挑战与固有的局限性。
数据效用与隐私保护的平衡
数据脱敏的核心挑战之一,在于如何在保护隐私与维持数据效用之间取得平衡。经过匿名化处理的数据,其原有的应用价值可能会降低,导致难以从中提取准确的洞见或有效地训练模型。例如,过度匿名化,如采用过于宽泛的泛化或过多的数据抑制,可能导致数据粒度严重下降,失去分析价值。反之,匿名化不足则会使敏感信息依然可被识别,将个体置于隐私泄露的风险之中。
效用与隐私的平衡点并非一成不变,它高度依赖于特定的LLM任务、数据的敏感程度以及可接受的风险水平。这意味着,动态或可配置的脱敏方法更具实际价值。例如,对于一个总结非敏感新闻文章的LLM,由于隐私风险较低,而效用(摘要的准确性)至关重要,因此可能仅需最少的脱敏处理。然而,对于一个分析患者医疗记录以提供诊断建议的LLM,隐私保护则是首要任务。在此情况下,即便LLM输出的细致度有所损失,只要能确保患者机密性,也是可以接受的。因此,“一刀切”的脱敏策略并不可行,系统需要能够根据具体应用场景调整脱敏的级别和类型。
在LLM的背景下,“效用”本身的定义也具有多面性。它可以指为生成任务保留语言的连贯性,为问答任务保持事实的准确性,或是为模型训练保留统计模式。不同的脱敏技术对这些效用方面的影响也各不相同。如果“效用”指的是生成流畅的文本,那么采用能将个人身份信息(PII)替换为语法上合适的占位符的脱敏技术(如语义掩码)可能会取得良好效果。如果效用指的是检索增强生成(RAG)系统的事实准确性,那么在对检索到的文档进行脱敏时,绝不能模糊回答问题所需的关键事实。如果效用指的是在训练数据中保留统计分布,那么诸如合成数据生成或经过仔细校准的噪声添加(如差分隐私)等技术就显得尤为重要。由于“效用”并非单一概念,评估脱敏技术的影响需要一种细致的方法,即根据应用中最关键的LLM性能指标采用不同的衡量标准。
再识别与链接攻击的风险
即使数据经过脱敏处理,再识别的风险依然存在。这尤其可能通过链接攻击(将脱敏数据与公开记录进行交叉引用)或推理攻击(利用剩余属性进行推断)发生。LLM的先进能力可能会加剧这种风险,因为机器学习模型能够分析匿名化数据集中的模式以进行再识别。
值得注意的是,已有研究提出了一个针对非结构化文本量化再识别脆弱性的框架。该框架通过使用语义检索器将经过处理的记录与辅助信息相关联,然后在原子声明级别对信息泄露进行评分。这直接应对了仅移除文本中的PII可能不足以防止再识别的挑战。
LLM数据面临的再识别威胁,因公共辅助数据的日益增多以及AI模型(包括攻击者使用的其他LLM)复杂的模式匹配能力而进一步放大。再识别攻击通常依赖于将脱敏数据集与公开可用的信息相关联,而互联网为此类辅助数据提供了庞大且不断增长的来源。此外,攻击者现在可以利用强大的AI工具,包括他们自己的LLM,通过识别分析师可能忽略的微妙模式和连接,更有效地执行这些链接攻击。这造成了一场持续的“军备竞赛”,脱敏技术必须不断发展,以领先于日益复杂的再识别方法。
在LLM环境中有效防御再识别,不仅需要对主数据集进行技术层面的脱敏,还需要更广泛的策略,包括数据最小化、访问控制,以及对可能用作辅助信息的新漏洞或公开发布数据集的持续监控。虽然像k-匿名性或差分隐私这样的技术旨在降低数据本身的再识别风险,但它们本身可能并不足够。数据最小化(即仅收集和保留必要的数据)能够减少潜在的攻击面。严格的访问控制则限制了能够尝试再识别数据的人员范围。持续监控和定期重新评估隐私风险至关重要,因为新的辅助数据集可能会出现,或者新的再识别技术可能会被发现。这意味着需要一个全面的、持续的风险管理过程,而非一次性的脱敏步骤。
大规模数据集的可扩展性与计算成本
LLM 的训练涉及海量数据集,例如数万亿级别的 token 。一些匿名化技术本身就是资源密集型的 。例如,使用 LLM 进行匿名化任务可能速度较慢且需要庞大的基础设施支持。对于高并发场景,使用 LLM 进行逐条评论的匿名化成本可能相当可观。然而,知识蒸馏等技术可以将匿名化能力赋予更轻量级的模型,从而降低开销 。相比之下,安全多方计算(MPC)和同态加密(HE)在应用于 LLM 时计算开销极高 。基于 Spark 的模型则旨在提高可扩展性,而合成数据生成在可扩展性方面可能优于传统的匿名化方法。
将复杂的脱敏算法应用于 PB 级或 TB 级的 LLM 训练数据,或者为数百万用户提示执行实时脱敏,都会带来重大的工程和成本挑战。LLM 脱敏技术的复杂性(及其潜在有效性)与其可扩展性/成本之间存在着一种新兴的权衡关系。像同态加密这样的高级 PETs 或使用大型 LLM 进行匿名化,其可扩展性通常不如更简单的基于规则或传统的方法。例如,全同态加密 或使用大型 LLM 进行上下文重写 提供了强大的隐私保护或高质量的匿名化效果,但其计算需求巨大,难以应用于超大规模数据集或需要低延迟响应的场景。相比之下,简单的基于正则表达式的 PII 过滤或基本的掩码技术虽然在隐私保护的完备性上可能有所欠缺,但其计算成本低廉,易于扩展。这种权衡意味着在选择脱敏方案时,必须综合考虑隐私需求、数据规模、性能要求和可用预算。对于需要处理海量训练数据的预训练阶段,可能需要采用计算效率更高、可大规模并行处理的脱敏方法,即使这意味着在隐私保护的精细度上有所妥协。而在处理用户实时交互的提示和输出时,虽然数据量相对较小,但对延迟敏感,因此也需要高效的脱敏机制。
6.4 特定数据类型脱敏的挑战与对策
不同类型的数据(如文本、图像、音频和代码)在脱敏过程中面临着各自独特的挑战。
-
文本数据
- 挑战: 非结构化文本中个人身份信息 (PII) 的多样性和上下文依赖性,使得识别与移除工作尤为困难。匿名化过程可能破坏语言的细微差别和连贯性,进而影响大语言模型 (LLM) 的学习效果。有研究指出,在命名实体识别方面,LLM 的表现可能不及传统的统计模型。此外,从多样化的文本数据集中移除与作者身份相关的 PII 也是一大难题,因为写作风格本身也可能成为一种身份标识。
- 对策: 可采用语义掩码、上下文匿名化等技术。利用 LLM 进行 PII 检测和文本重写,以及针对非结构化文本建立再识别风险评估框架也是有效的应对方法。对于文学或创意文本,脱敏的目标是在匿名化的同时保留其文体特征。这可能需要更复杂的处理手段,例如使用 LLM 生成风格相似但内容安全的文本,或审慎选择保留哪些非 PII 的文体元素。
-
图像数据
- 挑战: 图像中可能包含人脸、车牌、特定物体或背景等可识别信息。对于多模态 LLM 而言,对图像进行匿名化处理(如人脸编辑或背景移除)可能会影响模型对图像内容的理解及其整体性能。研究表明,诸如 k-匿名性之类的匿名化技术可能导致数据量显著减少,从而影响预测效能。此外,多模态 LLM 还存在通过图像泄露地理位置隐私的风险,即便是看似无害的环境元素也可能包含隐私信息。
- 对策: 可以采用人脸编辑技术(如模糊、像素化、黑盒覆盖)以及物体和背景的移除或替换技术。有研究表明,遮挡关键特征可以显著降低地理位置定位的准确性,这为防御机制的构建提供了思路。然而,过度匿名化可能会降低图像对于多模态 LLM 的实用价值。
-
音频数据
- 挑战: 语音中不仅包含说话人独特的声音特征(可能用于身份识别),对话内容本身也可能含有 PII。音频匿名化需要在处理这些敏感信息的同时,尽可能保留语音中的情感、语速等对 LLM 有用但非识别性的信息。
- 对策: 可以采用语音混淆技术(如变调、变速、频率调制),编辑或静音包含 PII 的片段,对说话人日志进行分离并使用匿名标签(如“说话人1”),以及使用合成语音替换原始语音。
-
代码数据
- 挑战: 源代码中可能包含 API 密钥、密码、专有算法、个人开发者信息或与特定项目相关的敏感路径/URL。代码匿名化不仅要移除这些直接的敏感信息,还可能需要保护算法逻辑不被轻易复制或理解,同时确保代码的结构和功能对 LLM 的分析学习仍然可用。
- 对策: 可以使用秘密检测工具(基于正则表达式、熵分析或 LLM),进行代码混淆(例如 CodeCipher 提出的基于嵌入矩阵变换的方法,旨在扰乱隐私信息的同时保留 LLM 的原始响应),以及采用语法转换(如 Base64 编码、Leet speak)。此外,还可以在不损害 LLM 学习代码结构和模式的前提下,对算法进行泛化或抽象化处理。
处理不同数据类型的复杂性,要求我们采用多模态、多层次的脱敏策略。例如,对于包含代码片段的聊天日志,既要处理文本中的 PII,也要处理代码中的潜在密钥。对于包含人脸和语音的视频,则需要同步进行人脸编辑和语音匿名化。这种交叉需求对脱敏工具和流程的集成性提出了更高的要求。
法律与合规要求
在大型语言模型(LLM)应用中,数据脱敏不仅是技术层面的需求,更是法律法规的强制性约束。全球主要的数据隐私法规,例如欧盟的《通用数据保护条例》(GDPR)、美国的《加州消费者隐私法》(CCPA) 与《健康保险流通与责任法案》(HIPAA)、中国的《个人信息保护法》(PIPL),以及教育领域的《家庭教育权利和隐私法》(FERPA) 等行业性法规,均对个人数据的处理、存储及匿名化标准提出了明确要求。
- GDPR: 强调匿名化处理后的数据不再受其管辖,但经过假名化处理的数据仍被视为个人数据,需要得到保护。该法规要求,在处理个人数据(包括用于 LLM 训练的数据)时必须具备合法依据,而匿名化则有助于满足“合法利益”等处理基础。
- CCPA: 提供了数据处理的相关指南,但并未将匿名化数据完全排除在其适用范围之外,同时对数据再识别的风险也设有严格规定。
- HIPAA: 对医疗领域受保护健康信息 (PHI) 的去标识化方法提出了具体要求。
- PIPL: 对个人信息的处理和跨境传输制定了严格规范,并强调了“告知-同意”原则的重要性。
- FERPA: 旨在保护学生教育记录的隐私。在教育场景中部署的人工智能系统必须严格遵守此法规。
这些法规普遍要求相关组织采取适当的技术与组织措施以保护个人数据,数据脱敏在其中扮演着关键角色。一旦未能遵循这些法规,组织可能面临巨额罚款、法律诉讼乃至声誉受损的风险。因此,LLM 的开发者和运营者必须深入理解并严格遵守其业务所涉司法管辖区内的所有适用法规,同时将数据脱敏视为其合规策略的核心环节。
法律框架的复杂性与动态性,为 LLM 数据脱敏带来了持续的挑战。不同国家和地区的法规不仅存在差异,而且随着技术的进步以及公众对隐私保护期望的提升,这些法规自身也在不断发展和完善。例如,关于何为“充分匿名化”以达到不受 GDPR 约束的标准,其解释可能存在细微差异,相关判例也在持续演进。这就要求组织不能仅仅实施一次性的数据脱敏措施,更需要建立起持续的合规监控与更新机制,以主动适应法规的变动和新的司法解释。
此外,LLM 应用的全球化特性进一步加剧了合规的复杂性。一个 LLM 应用可能需要同时服务于不同国家的用户,这意味着其运营需要遵循多个司法管辖区的隐私法规。如何在技术上实现对不同地区用户数据的差异化处理与脱敏,以满足各地的法律规定,是一项重大的运营和技术挑战。例如,数据本地化存储和处理的要求,以及对跨境数据传输的限制,都会对脱敏策略的设计与实施产生影响。
伦理考量:偏见、公平与透明度
数据脱敏不仅是技术和法律层面的议题,更与伦理考量紧密相连,尤其体现在偏见、公平性和透明度这三个方面。
- 偏见 (Bias): 大型语言模型(LLM)通过学习训练数据中的模式来运作。如果这些训练数据本身就带有偏见(例如,对特定人群的刻板印象),那么即使数据经过脱敏处理,模型也可能延续甚至放大这些偏见。不当的脱敏过程(例如,对某些群体个人身份信息(PII)的识别和处理不如其他群体准确)也可能引入新的偏见。我们需要区分有益的偏见(如语法正确性)和有害的偏见(如歧视性输出),并着重识别和纠正后者。
- 公平性 (Fairness): 脱敏后的数据以及基于这些数据训练的LLM所产生的输出,都应确保对不同人群的公平对待。例如,如果脱敏过程导致某些代表性不足群体的有效数据量减少,则可能影响模型在这些群体上的表现,从而造成不公平的结果。采用公平性算法和多样化的训练数据是缓解偏见、促进公平的关键。
- 透明度 (Transparency): 用户和监管机构有权了解LLM如何处理他们的数据,这其中也包括脱敏的具体过程。提供透明的文档记录,详细说明模型的开发过程、能力、局限性以及已知的偏见,有助于建立信任,并引导用户负责任地使用模型。清晰告知用户其数据将如何被使用、存储和脱敏,并获得他们的知情同意,是构建负责任人工智能(AI)的重要一环。
在LLM的开发过程中,解决偏见问题需要首先明确期望达成的结果,识别模型应具备哪些有益偏见,同时避免哪些有害偏见。其次,需要通过基准测试(如StereoSet、BBQ)来检验和衡量偏见程度,并对此进行持续监控。确保训练数据的多样性和代表性,以及实施能够感知公平性的算法,有助于防止产生带有偏见的结果。
脱敏过程本身也可能对公平性产生未预期的影响。如果用于识别和脱敏PII的工具因训练数据偏差等原因,在处理不同人口统计学群体的数据时表现不一致(例如,对某些文化背景的姓名识别效果不佳),那么脱敏过程本身就可能系统性地给某些群体带来更大的隐私风险或数据效用损失。这进而会影响基于这些数据训练的LLM的公平性。因此,对脱敏工具和流程进行公平性审计至关重要。
透明度不仅意味着告知用户数据如何被使用,还应延伸至脱敏过程的局限性。如前所述,没有任何一种脱敏技术是完美无缺的。坦诚地向用户和利益相关者沟通这些局限性,并说明为减轻残余风险所采取的措施,是建立和维持信任的关键。例如,如果某种类型的PII难以被自动化系统可靠地检测和脱敏,那么就应明确指出这一点,并辅以用户教育或额外的保护措施。
特定场景下大型语言模型(LLM)数据脱敏的最佳实践
针对不同的大型语言模型(LLM)应用场景,数据脱敏的最佳实践各有侧重。
智能客服与聊天记录脱敏
在智能客服领域,LLM 被广泛用于驱动聊天机器人,处理海量的客户交互数据。这些聊天记录通常包含丰富的个人身份信息(PII)和敏感信息。
- 挑战: 既要保护客户隐私,又要保留足够的对话上下文和用户意图,以便 LLM 能够理解并有效响应,或用于后续的模型训练与分析。
- 最佳实践:
- 数据预处理与清理: 在将聊天记录用于训练或分析前,进行彻底的预处理,移除无关数据、纠正错误并统一格式。
- PII 自动移除/掩码: 采用自动化工具(如基于命名实体识别 NER 或正则表达式的技术),在数据导入或实时交互中识别并移除/掩码 PII,例如姓名、邮箱、电话、信用卡号等。
- 保留上下文与意图: 使用语义掩码或一致性占位符,而非简单粗暴地删除,以帮助 LLM 理解被脱敏部分的语境。例如,将具体地址替换为“[地址]”,而不是完全删除。
- 高质量训练数据: 确保用于训练客服 LLM 的脱敏数据能够反映品牌形象和预期的对话风格。
- 持续学习与反馈: 实施反馈循环,利用经过脱敏的用户交互数据持续改进 LLM 的响应质量。
- 明确的隐私政策与用户同意: 透明地告知用户其数据将如何被收集、使用和脱敏,并征得其同意。
- 安全的数据处理与存储: 对聊天记录(即使是脱敏后的)进行加密存储和安全传输,并实施严格的访问控制。
- 考虑使用联邦学习: 对于需要在本地设备上进行个性化训练的场景,可以探索联邦学习,以减少数据集中存储的风险。
在处理客服聊天记录这类高度依赖交互和上下文的数据时,关键的挑战在于如何在脱敏 PII 的同时,不破坏对话的自然流畅性以及 LLM 理解用户真实意图的能力。如果脱敏操作过于生硬(例如,简单地将所有 PII 替换为相同的“[已编辑]”标签),可能会导致上下文信息丢失,使 LLM 难以追踪对话历史或理解指代关系。因此,采用更智能的脱敏方法至关重要,例如为不同类型的 PII(姓名、地点、订单号等)使用不同但内部一致的占位符,或者利用技术(可能包括另一个辅助 LLM)生成既能隐藏 PII 又能保持句子流畅性的替代性表述。这种对“对话流”的保护是确保脱敏后数据仍能有效用于训练和服务改进的前提。
此外,对于用于训练的数据,不仅要关注单次对话的脱敏,还要考虑跨对话的 PII 关联问题。例如,如果同一用户在多次对话中提及不同的 PII,简单的逐条对话脱敏可能不足以防止通过组合信息进行重识别。这就需要在数据准备阶段考虑更全局的匿名化策略,例如对用户进行假名化处理,并将该假名与该用户所有对话中的脱敏 PII 占位符相关联,同时确保假名本身不泄露信息。
内容生成与文学/网络文本脱敏
大型语言模型(LLM)在内容生成方面的应用日益广泛,特别是当它们基于文学作品、网络文本等创意性或公开数据进行训练或微调时,数据脱敏显得尤为重要,尽管其侧重点可能与传统场景有所不同。
- 主要挑战:
- 版权与知识产权: 训练数据中可能包含受版权保护的材料。虽然这并非直接的个人身份信息(PII)脱敏问题,但它关乎数据来源的合法性及使用权限。
- 作者身份信息: 文学作品或网络文本中可能包含作者的个人身份信息(如真实姓名、联系方式、个人经历的暗示等)或贡献者信息。
- 保持文体与语境: 脱敏处理需避免破坏原文的文学风格、叙事结构及深层含义,这对于训练出能生成高质量创意内容的LLM至关重要。
- 数据的规模化与多样性: 网络文本来源广泛、内容多样,识别并处理其中分散的个人身份信息是一项艰巨的任务。
- 推荐实践:
- 优先采用开放授权与公共领域数据: 尽可能选用明确授权用于AI训练的数据集,以规避版权风险。
- 作者个人身份信息脱敏: 识别并处理文本中可能泄露作者身份的直接或间接信息。可借鉴聊天记录脱敏中的PII检测与替换技术,但需更加注重上下文的自然流畅。
- 保留文体特征: 脱敏过程中,应力求不改变文本的语言风格、情感色彩及叙事技巧。例如,CleanText方案通过将源实体替换为功能性虚构数据来实现命名实体的匿名化,同时保留原始语境。已有研究表明,LLM能够重写文本以移除隐私信息,并保留相关上下文。
- 利用合成数据辅助: 可运用LLM生成符合特定文体要求且不含个人身份信息的合成文本,用以扩充训练数据或替代敏感内容。
- 精细化PII检测: 针对从网络抓取的大量文本,需要强大的PII检测工具,可结合规则、机器学习模型乃至LLM自身进行识别。
- 人工审核与评估: 对于文学价值较高或用于训练特定风格模型的文本,人工审核脱敏效果以确保隐私保护与内容质量之间的平衡,显得尤为关键。
研究显示,即便是对用于生成个人介绍、求职信等个性化任务的提示进行匿名化处理,对LLM生成内容的质量影响也相对较小,这为创意内容领域的脱敏工作带来了一定信心。此外,对LLM生成文本进行检测的必要性也日益凸显,这间接反映了业界对训练数据来源和性质的重视。
文学和网络文本通常不以结构化方式存储个人身份信息,其挑战在于PII可能以更隐蔽、更融入叙事的方式呈现。例如,小说中的角色可能基于作者的真实熟人,博客文章也可能在不经意间透露作者的日常习惯或地理位置。传统的基于模式的PII检测方法往往难以捕捉这些细微线索。因此,能够理解上下文并进行一定程度推断的更高级PII识别方法(可能由LLM辅助实现)愈发重要。
另一个关键在于,如何在保护个人隐私的PII脱敏与保留作品“身份”(如独特写作风格、主题、世界观)之间取得平衡。过度脱敏可能导致文本失去独特性,从而降低其作为训练数据的价值,尤其是对于那些旨在学习特定作者风格或文学流派的LLM而言。因此,脱敏策略不仅要明确“移除哪些内容”,更要考虑“如何保留哪些特性”。这可能需要更精细的实体替换规则,或在某些情况下,允许一定程度不直接关联真实个体的“虚构PII”存在,前提是它们对作品的完整性至关重要。
好的,这是优化后的文本:
金融与医疗等高敏感行业的数据脱敏
金融和医疗行业的数据高度敏感,因此对数据脱敏的要求也最为严格。在这些领域,大型语言模型(LLM)的应用,例如辅助诊断、风险评估和客户服务等,都必须以强大的隐私保护为前提。
- 挑战:
- 法规遵从: 必须严格遵守行业特定法规(如医疗行业的HIPAA、金融行业的GLBA)以及通用数据保护法规(如GDPR)。
- 数据复杂性: 电子健康记录(EHR)、临床笔记、金融交易记录等通常包含大量结构化和非结构化的个人身份信息(PII)、受保护健康信息(PHI)以及敏感财务信息。
- 数据效用要求高: 脱敏后的数据仍需保持足够的准确性和完整性,以支持关键决策(如医疗诊断、欺诈检测)。
- 信任至关重要: 任何数据泄露都可能对机构声誉及客户或患者的信任造成毁灭性打击。
- 最佳实践:
- 强化PII/PHI识别与脱敏: 采用先进的PII/PHI识别技术,结合规则、机器学习和LLM进行多层检测与脱敏。Tonic Textual在金融领域的案例表明,高精度的PII检测和匿名化至关重要。
- 最小化原则: 严格遵循数据最小化原则,仅收集和处理完成特定任务所必需的数据。
- 上下文感知脱敏: 针对临床笔记等非结构化文本,采用能理解医学术语和上下文的脱敏方法,避免破坏关键临床信息。已有研究评估了使用关键词提取等方法生成合成临床笔记,以便在保护隐私的同时保留数据可用性。
- 合成数据生成: 当无法直接使用真实数据时(例如模型初始训练或与第三方共享数据),可考虑生成高质量的合成医疗或金融数据。
- 联邦学习与差分隐私: 探索应用联邦学习,允许多个机构(如医院)在不共享原始数据的情况下协作训练模型,并结合差分隐私技术增强模型更新过程中的隐私保护。
- 严格的访问控制与审计: 实施基于角色的访问控制,确保仅授权人员可访问敏感数据或脱敏密钥(如用于假名化的密钥)。对数据访问和脱敏过程进行详细审计。
- 安全的数据存储与传输: 对所有敏感数据(无论是否已脱敏)进行静态和动态加密。
- 自托管解决方案: 对于有严格数据控制和驻留要求的机构(如税务机构),应优先考虑可自托管的脱敏解决方案。
在高敏感行业,脱敏策略往往需要秉持“零信任”思维。这意味着不能仅依赖单一的脱敏技术,而应构建一个多层次的防御体系。例如,在处理电子健康记录(EHR)时,首先可对患者的直接身份标识(如姓名、ID号)进行强假名化处理;然后,对临床笔记中的间接身份标识和敏感描述(如罕见病症的详细描述、具体日期和地点)进行基于上下文的遮盖或泛化处理;接着,若这些数据用于训练LLM,可在训练过程中引入差分隐私机制;最后,对LLM的输出进行严格审查和过滤,以防任何潜在的PII或PHI片段泄露。这种纵深防御理念是应对高风险、高回报应用场景的必要条件。
此外,这些行业对脱敏过程的可解释性和可审计性要求极高。监管机构和内部合规团队需要能够理解并验证脱敏措施的有效性。这意味着脱敏工具和平台不仅要功能强大,还需提供清晰的报告、日志和配置管理功能,以便追溯和证明其符合相关法律法规及行业标准。这对于建立和维护监管机构的信任至关重要。
代码与算法数据的脱敏
当大型语言模型(LLM)用于分析、生成或辅助处理源代码时,代码本身及其相关的算法逻辑也可能包含需要进行脱敏处理的敏感信息。
- 挑战:
- 嵌入式密钥和凭证: 源代码中通常包含硬编码的API密钥、数据库密码、私钥等敏感凭证。
- 专有算法和商业秘密: 代码可能包含企业的核心算法、商业逻辑或未公开的创新技术,这些构成知识产权的关键部分,需要严加保护,防止泄露或被轻易复制。
- 可识别的开发者信息或项目细节: 代码注释、提交历史、特定的编码风格或项目内部命名约定有时也可能间接泄露开发者身份或项目相关的敏感信息。
- 保持代码功能和结构: 脱敏操作(尤其是针对算法逻辑的)不应破坏代码的基本结构和可执行性,也不应影响LLM从中学习有效模式的能力。
- 最佳实践:
- 密钥和凭证的自动检测与移除/替换: 使用专门工具(如TruffleHog、Gitleaks或基于LLM的秘密检测器)扫描代码库,自动识别并移除硬编码的密钥、密码等,或用占位符替换。同时,运用模式匹配和AI驱动的数据清理技术来检测和净化敏感信息。
- 代码混淆: 对包含专有逻辑的部分代码采用混淆技术,使其难以被人或机器逆向工程,同时尽量保留其高级结构和行为,以便LLM理解。例如,CodeCipher通过变换LLM的嵌入矩阵来实现一种学习型的代码混淆。
- 算法泛化/抽象化: 在不泄露具体实现细节的前提下,将专有算法的核心思想或逻辑流程以更通用或抽象的方式表达出来,供LLM学习。可以利用LLM生成合成代码数据,其中可能包含对算法的某种形式的抽象或变体。SPDZCoder框架通过规则指导LLM合成隐私计算代码,这本身即是将特定隐私保护算法逻辑(MP-SPDZ)传授给LLM的一种方式,而无需直接暴露大量敏感的实现代码。
- 结构化占位符: 对于代码中的敏感变量名、函数名或特定数值,可以使用结构化的占位符(例如
[SENSITIVE_VARIABLE]
或[PROPRIETARY_FUNCTION]
)进行替换,这样LLM仍能理解其在代码结构中的作用。 - 最小化代码共享: 仅向LLM提供执行分析或生成任务所必需的最少量代码片段,而非整个代码库。
- 安全的代码执行环境: 若LLM需要执行代码(例如,用于验证或测试),操作应在高度隔离和受限的沙箱环境中进行,以防止潜在的恶意代码执行或信息泄露。
- 访问控制和知识产权保护策略: 结合技术手段和组织策略,严格控制对包含敏感代码或算法的训练数据以及LLM模型的访问。
研究指出,敏感信息泄露可能暴露专有算法,因此建议使用数据输入/输出净化技术和最小权限原则。相关研究表明,经过微调的LLM在源代码秘密检测方面能有效减少误报。
在对代码数据进行脱敏时,关键在于如何在移除或混淆敏感信息(如密钥、具体算法实现)与保留足够的代码结构、语义和功能性之间取得平衡,从而确保LLM能够有效地从中学习或进行有意义的操作(如代码补全、摘要、翻译)。如果脱敏措施过于激进,例如将所有变量名替换为无意义字符,或完全移除算法的核心逻辑,那么LLM可能无法学习到任何有用的编程模式或领域知识。CodeCipher提出的方法,即通过学习一个token-to-token的混淆映射来扰乱源代码,同时试图保持LLM对其原始意图的响应能力,正是对这一难题的积极探索。该方法的核心思想是,混淆后的代码对于人类或其他试图直接编译、执行或理解它的系统而言是难以辨认或无用的,但对于已经适应这种混淆方式的特定LLM服务来说,它仍然可以被“正确”地处理。
另一个需要深层考虑的问题是“算法指纹”。即使显式的密钥和专有函数名被移除,特定算法的独特实现方式、数据结构选择或优化技巧本身也可能构成一种可识别的“指纹”,从而间接泄露知识产权。对于旨在保护此类高度敏感算法逻辑的场景,简单的个人身份信息(PII)式脱敏可能不足够。此时,可能需要更高级的抽象化技术,例如将具体算法转换为伪代码、流程图描述,或者仅提供算法的输入输出规范和性能特征供LLM学习,而非完整的实现细节。这与SPDZCoder通过高级规则而非大量代码实例来教导LLM掌握隐私计算概念的思路有相似之处。
好的,这是优化后的文本:
多模态数据的脱敏
随着多模态大型语言模型(LLM)的兴起,对图像、音频及视频数据中的敏感信息进行脱敏处理已变得日益重要。
-
图像数据脱敏:
- 挑战: 图像中可能包含人脸、车牌号码、明确的地理标志、文档内容以及屏幕截图中的敏感文本等。由于多模态LLM需要理解图像内容,过度模糊或移除这些信息可能会影响其性能。研究表明,即使是环境元素(如独特的建筑或背景)也可能导致隐私泄露,例如通过图像进行地理位置推断。
- 技术与实践:
- 人脸匿名化: 包括模糊处理、像素化、黑框遮挡,或采用更高级的人脸替换技术。例如,VIDIZMO Redactor等工具可利用AI自动检测和处理人脸。
- 物体与背景匿名化: 移除或替换图像中可识别的物体(如特定品牌的汽车、公司徽标)或能够揭示位置的背景特征。虽然Azure AI Image Analysis等部分服务已更新换代,其提供的背景移除功能原理仍具参考价值,Imgix等服务也提供类似功能。此外,可通过遮挡关键背景特征来降低地理位置推断的准确性。
- 文本信息编辑: 通过OCR技术识别图像中的文本(如路牌、文档照片),再对其中包含的个人可识别信息(PII)进行脱敏处理(如编辑或模糊)。
- 对LLM性能的影响: 图像匿名化措施(如模糊、对象移除)可能降低多模态LLM对图像的理解深度和准确性,尤其是在需要细致视觉信息的任务中。相关研究虽侧重于图像增强技术(如旋转、模糊)对模型训练的影响,但也间接揭示了任何图像变换都可能影响模型的感知能力。
-
音频/视频数据脱敏:
- 挑战: 音频中可能包含可识别的说话人声音特征以及对话中提及的PII。视频则综合了图像和音频的双重挑战。
- 技术与实践:
- 语音匿名化: 主要方法包括:1) 声音混淆/变换:改变说话人的音高、语速、音色,或采用语音转换技术生成内容相同但声音不同的语音。2) PII编辑:先将语音转录为文本,编辑其中的PII,然后在音频对应位置进行静音、哔声处理或替换为通用填充音。3) 合成语音替换:用完全合成的语音替换原始语音,彻底消除原始声音特征。
- 说话人日志分离与匿名标签: 在多方对话场景下,识别不同说话人并使用匿名标签(如“发言人A”、“发言人B”)代替其真实身份。pyannote-audio等开源框架可支持此类功能。
- 视频中的动态对象追踪与编辑: 针对视频中的移动对象(如行人、行驶车辆),需实现持续追踪并进行匿名化处理(例如,对人脸进行持续模糊)。
- 元数据匿名化: 对音视频文件附带的元数据(如拍摄时间、地点、设备信息)也需要进行审查和脱敏。
在多模态LLM的训练过程中,对单一模态数据的匿名化可能间接影响模型对其他关联模态数据的理解。例如,若视频中的人脸被完全遮挡,LLM可能难以将音频中的特定语音与视频中的人物行为准确关联。因此,多模态数据脱敏需综合考量各模态间的信息关联,力求在保护隐私与最大限度地保留跨模态学习所需信息之间找到平衡。这可能涉及更精细的匿名化策略,如对人脸进行轻微但足以实现去识别化的修改(而非完全遮挡),或在语音匿名化时尽可能保留情感、韵律等非身份相关的声学特征。
此外,多模态数据脱敏的计算成本和复杂性通常高于单模态数据。例如,视频的逐帧处理和动态对象追踪需耗费大量计算资源。自动化工具及AI驱动的检测技术对于处理大规模多模态数据集至关重要,但其准确性和可靠性仍有待持续评估与改进。
结论与展望
大语言模型(LLM)的广泛应用带来了前所未有的机遇,也伴随着严峻的数据隐私挑战。本研究报告深入调研了当前LLM应用中的数据脱敏方案,涵盖核心脱敏技术、先进隐私增强技术(PETs)、实施策略、工具平台,以及面临的挑战与局限性。
核心结论:
- 脱敏的必要性与复杂性: LLM强大的学习与生成能力,使其训练数据和用户交互数据中的个人身份信息(PII)及敏感内容极易被记忆、泄露或滥用。因此,数据脱敏是LLM安全可信发展的基石,而非选项。LLM数据的规模庞大、非结构化以及上下文依赖特性,使得脱敏任务远比传统数据场景复杂。
- 技术方案的多样性与适用性: 从传统的数据掩码、假名化、泛化,到新兴的合成数据生成、令牌化,再到差分隐私、同态加密和联邦学习等先进技术,存在多样化的技术路径。各种技术均有其原理、优缺点及适用场景。例如,语义掩码和上下文感知脱敏对保持LLM的理解能力至关重要;合成数据为解决训练数据隐私问题开辟了新途径;差分隐私和联邦学习则为模型训练与协作提供了更强的隐私保障。没有任何一种技术是万能的,通常需要依据具体应用场景、数据类型、隐私需求和效用目标组合运用。
- 效用与隐私的持续权衡: 所有脱敏方案均需在数据效用与隐私保护间进行权衡。过度脱敏可能损害LLM的性能和学习能力,而脱敏不足则无法有效防范隐私风险。此权衡并非静态,而是动态的,需根据LLM的任务、数据敏感度及风险承受能力进行调整。利用LLM自身实现更智能的PII识别和上下文保持的脱敏处理,是优化此平衡点的有效途径。
- 工具与平台的演进: 开源与商业领域均涌现出针对LLM数据脱敏的工具和平台。开源工具提供灵活性与透明度,商业平台则通常具备更完善的企业级功能、集成及支持。LLM可观察性平台(如Langfuse)和信任层(如Salesforce Einstein Trust Layer)已将脱敏功能嵌入LLM的生命周期管理,体现了将隐私保护作为内置能力的趋势。
- 多模态与特定数据类型的挑战: 文本、图像、音频、代码等不同数据类型的脱敏面临各自独特的挑战。例如,文本需保持语义连贯,图像需处理人脸和可识别物体,音频涉及声音特征,代码则关乎密钥与算法逻辑。多模态LLM的兴起对跨模态数据的协同脱敏提出了更高要求。
- 法律合规与伦理考量的重要性: GDPR、CCPA、HIPAA、PIPL等全球性及行业性法规对LLM数据处理和脱敏提出了强制性要求。同时,偏见、公平性与透明度等伦理问题亦与脱敏实践紧密相关,需得到充分重视和妥善处理。
未来展望:
- 智能化与自动化脱敏: 运用LLM和其他AI技术进一步提升PII识别的准确性、上下文理解能力以及脱敏策略的自适应性,是未来发展的重要方向。知识蒸馏等技术有望催生更高效、轻量级的专用脱敏模型。
- 混合PETs策略的深化: 单一PET往往难以完美应对所有挑战。未来将更强调多种PET(如差分隐私、联邦学习、同态加密/安全多方计算的部分应用及合成数据等)的协同组合,以构建多层次、纵深防御的隐私保护体系。
- 标准化与互操作性: 随着PETs的成熟,建立相关的技术标准、评估基准和互操作性框架至关重要,这将有助于推动技术的广泛应用和产业生态的健康发展。
- “设计即隐私”理念的普及: 在LLM模型设计、数据收集、训练到部署的整个生命周期中,均应贯彻“设计即隐私”原则,将数据脱敏和隐私保护作为系统固有的核心功能,而非事后补救措施。
- 针对特定数据和场景的精细化方案: 针对代码、多模态数据、高敏感行业(如金融、医疗)等特定场景,将涌现更多定制化、精细化的脱敏技术和最佳实践。例如,如何在保护专有算法的同时允许LLM从代码中学习,以及如何在匿名化多模态输入时不过度削弱LLM的跨模态理解能力等。
- 用户赋权与透明度提升: 赋予用户对其数据更大的控制权,并提升LLM数据处理和脱敏过程的透明度,将有助于建立用户信任,促进负责任的AI发展。
总之,LLM数据脱敏是一个复杂且持续演进的领域。通过不断的技术创新、跨学科合作以及对法律伦理的深刻理解,我们有望在充分释放LLM潜力的同时,有效保护个人隐私与数据安全。
引用
- LLM Data Quality: Old School Problems, Brand New Challenges - Gable.ai
- Open-Source AI Matches Top Proprietary LLM in Solving Tough Medical Cases
- LLM Data Privacy: How to Implement Effective Data De-identification - Skyflow
- Security and Privacy Challenges of Large Language Models: A Survey - ResearchGate
- Data Anonymization vs Data Masking: Definitions and Use Cases
- Privacy and Data Security Challenges in the Era of Large Language Models (LLMs)
- GenAI Security: The Problem with Private Data in LLMs - Paperclip Inc.
- How [ORGANIZATION] unblocked AI innovation to optimize tax services, with secure data synthesis from Tonic Textual | Case Studies
- Large Language Models in Healthcare: Bridging Technology and Medicine - Topflight Apps
- LLM Security: Ways to Protect Sensitive Data in AI-Powered Systems - Kanerika
- Robust privacy amidst innovation with large language models through a critical assessment of the risks | Journal of the American Medical Informatics Association | Oxford Academic
- LLM for Enterprise Performance Management System | AI-Powered Insights & Data Integration - SciForce
- LLMs: The Future of Customer Service Chatbots
- What is Data Anonymization? Techniques, Tools, and Best Practices Explained - DataCamp
- Data Anonymisation Made Simple [7 Methods & Best Practices] - Spot Intelligence
- What is Data Anonymization? A Practical Guide - K2view
- Pseudonymization according to the GDPR [definitions and examples]
- What is Data Masking? A Practical Guide - K2view
- Masking of sensitive LLM data - Langfuse
- Large Language Model Data Masking - Salesforce Help
- Protecting Sensitive Data in LLM Training - Securityium
- Advantages and Disadvantages of Anonymized Data - K2view
- Perspective: Why data subjects' rights to LLM training data are not relevant | IAPP
- Data Masking: What It Is and 8 Ways To Implement It - Zendata
- [2402.13846] Large Language Models are Advanced Anonymizers - arXiv
- Robust Utility-Preserving Text Anonymization Based on Large Language Models - arXiv
- Evaluating Textual Data Sanitization Beyond Surface-level Privacy Leakage - arXiv
- LegalGuardian: A Privacy-Preserving Framework for Secure Integration of Large Language Models in Legal Practice - arXiv
- Data Anonymization and LLM - Finetuning for Success | CROZ
- Can Differentially Private Fine-tuning LLMs Protect Against Privacy Attacks? - arXiv
- K-anonymity, l-diversity and t-closeness | Data Privacy Handbook - GitHub Pages
- PDF) Data Anonymization Techniques - ResearchGate
- k-Anonymity vs l-Diversity - DataKnobs
- Augmenting Anonymized Data with AI: Exploring the Feasibility and Limitations of Large Language Models in Data Enrichment - arXiv
- The Curse of Dimensionality: De-identification Challenges in the Sharing of Highly Dimensional Datasets - The Future of Privacy Forum
- What is Data Anonymization | Pros, Cons & Common Techniques - Imperva
- Data anonymization tools: the 4 best and the 7 worst choices for privacy - Mostly AI
- Large language models generating synthetic clinical datasets: a feasibility and comparative analysis with real-world perioperative data - Frontiers
- Balancing Data Privacy and Data Utility in Synthetic Data - Betterdata
- Scalable and cost-effective fine-tuning for LLMs - Red Hat
- Synthetic Data Generation Using Large Language Models: Advances in Text and Code
- DATA TOKENIZATION EXPLAINED: 5 BASIC PRINCIPLES OF TOKENIZATION - Protegrity
- How to Preserve Data Privacy in LLMs in 2024? (4 Ways to Preserve Privacy in Generative AI) - OptIQ.AI
- arXiv:2502.11110v1 [cs.CR] 16 Feb 2025
- Encrypted Large Model Inference: The Equivariant Encryption Paradigm - arXiv
- What are the future trends in federated learning? - Milvus
- Federated learning and LLMs: Redefining privacy-first AI training - Outshift | Cisco
- Top 9 LLM Security Best Practices - Check Point Software
- Privacy-Preserving Personalized Federated Prompt Learning for Multimodal Large Language Models - arXiv
- [2501.13904] Privacy-Preserving Personalized Federated Prompt Learning for Multimodal Large Language Models - arXiv
- Multimodal Models - LLMs that can see and hear - Towards Data Science
- LLM Agents: How They Work and Where They Go Wrong - Holistic AI
- Privacy-Enhancing and Privacy- Preserving Technologies in AI: - Centre for Information Policy Leadership
- Large language models generating synthetic clinical datasets: a feasibility and comparative analysis with real-world perioperative data - PMC
- RAG with Differential Privacy - arXiv
- arXiv:2309.03057v1 [cs.CR] 6 Sep 2023
- 6 biggest LLM challenges and possible solutions - nexos.ai
- Data Masking | Models | Agentforce Developer Guide
- PII Sanitization Needed for LLMs and Agentic AI is Now Easier to Build | Kong Inc.
- Language Models are Advanced Anonymizers - OpenReview
- Secret Breach Detection in Source Code with Large Language Models - arXiv
- Resource-Efficient Anonymization of Textual Data via Knowledge Distillation from Large Language Models - ACL Anthology
- Elara: a simple open-source tool for anonymizing LLM prompts : r/LocalLLaMA - Reddit
- LLM Guard | Secure Your LLM Applications - Protect AI
- Protecting PII data with anonymization in LLM-based projects - The Software House
- Enhancing Privacy While Preserving Context in Text ... - MDPI
- Bram-code/LLM-anonymization: This repository provides utilities for anonymizing, pseudonymizing, and simplifying Dutch text using various NLP techniques. - GitHub
- Top Data Anonymization Tools for 2025 - K2view
- LLM Fine-Tuning Demystified: How Businesses Are Customizing AI Models for Real Results - Ahex Technologies
- Fine-tuning LLMs 101 - CROZ
- Adanonymizer: Interactively Navigating and Balancing the Duality of Privacy and Output Performance in Human-LLM Interaction - arXiv
- AI and Data Protection: Strategies for LLM Compliance and Risk Mitigation
- Safeguarding Data Integrity and Privacy in the Age of LLMs | Sentra Blog
- How do I choose the right data anonymization technique for my large dataset?
- A distributed computing model for big data anonymization in the ...
- Using LLM to make documents anonymous : r/LocalLLaMA - Reddit
- A Survey on LLM-Generated Text Detection: Necessity, Methods, and Future Directions
- Multimodal Large Language Models for Image, Text, and Speech Data Augmentation: A Survey - arXiv
- How to Redact a Video Efficiently with Video Redaction Software - Vidizmo
- Efficient Video Redaction: How to Streamline the Process and Save Time - Vidizmo
- Background removal - Image Analysis - Azure AI services | Microsoft Learn
- Background Removal | Rendering API - Imgix
- Priv-IQ: A Benchmark and Comparative Evaluation of Large Multimodal Models on Privacy Competencies - MDPI
- Anonymising Speech Data: Techniques and Best Practices - Waywithwords.net
- Audio Annotation: How to Prepare Speech Data for ML
- Large Language Model (LLM) Security: Challenges & Best Practices
- CodeCipher: Learning To Obfuscate Source Code Against LLMs - OpenReview
- Obfuscation & Token Smuggling: Evasion Techniques in Prompt Hacking
- Track: Poster Session 2 West - NeurIPS 2025
- LLM Security 101: Protecting Large Language Models from Cyber Threats - Qualys Blog
- LLM Security: Understanding Risks, Tools, and Best Practices - Pynt
- What measures ensure LLM compliance with data privacy laws like GDPR? - Milvus
- Understanding Data Management & Security in Conversational AI
- Ethical Considerations and Best Practices in LLM Development - Neptune.ai
- Responsible Use of LLMs - TechTALK
- How To Preserve Data Privacy In LLMs In 2025 - Protecto.ai
- How Conversational Analytics Works & How to Implement It - Thematic
- Integrating Falcon LLM into Your Chatbot Development Process
- Towards Best Practices for Open Datasets for LLM Training - arXiv
- Balancing Privacy and Utility in Personal LLM Writing Tasks: An Automated Pipeline for Evaluating Anonymizations - ACL Anthology
- 金融业智能数据脱敏技术研究报告
- A Novel Compact LLM Framework for Local, High-Privacy EHR Data Applications - arXiv
- Top 10 LLM Security Risks & Why do They Matter? in 2025 - Research AIMultiple
- Accepted Grand Challenges - 2025 ACM Multimedia
- Data Drift in LLMs—Causes, Challenges, and Strategies | Nexla
- Doxing via the Lens: Revealing Privacy Leakage in Image Geolocation for Agentic Multi-Modal Large Reasoning Model - arXiv
- SPDZCoder: Teaching LLMs to Synthesize Privacy Computing Code without Massive Training Data - arXiv
- Best Practices for Open Datasets for LLM Training Draft
- Understanding Users' Security and Privacy Concerns and Attitudes Towards Conversational AI Platforms - arXiv
- LLM Information Disclosure: Prevention and Mitigation Strategies - Coralogix