洞见研究院|连信大模型引入神经符号AI,突破AI可解释性缺失难题

81 阅读6分钟

图片

大模型时代,以大语言模型(Large Language Models, LLMs)为代表的人工智能技术,已在自然语言的理解与生成方面取得了革命性突破。然而,尽管模型在各项任务预测准确度上不断提升,其内部决策机理始终缺乏明晰的阐释。但随着模型复杂度的提升,我们越来越难以充分理解其判断与推理的内在逻辑,这不仅削弱了用户对模型的信任,也构成了当前人工智能发展中的核心瓶颈。

 

为了应对上述挑战,连信“洞见人和”人本世界大模型在依托自主研发的神经网络基础上,创新性地引入神经符号AI(Neuro-Symbolic AI)技术**,在可解释性路径上实现关键突破。** 大模型成功实现了AI决策过程的可解释与透明化,在保持强大泛化能力的同时,确保了分析结果的理论合理性与逻辑可读性。

实验验证表明,融合神经符号AI的连信“洞见人和”人本世界大模型在多项可解释性相关指标上均取得显著提升。在由第三方大模型与心理学专家参与的盲评中,该系统在“可信度”与“可解释性”两项关键维度上表现优异,体现出该技术路径在构建可信AI系统方面的有效性与先进性。

|神经符号AI,实现1+1>2

神经符号AI(Neuro-Symbolic AI, NeSy) 简单来说,它致力于将神经网络强大的模式学习能力,与符号系统结构化、透明的推理能力相结合(Marra et al., 2024; Colelough et al., 2025),取长补短,实现1+1>2的效果。

这一融合思路可类比于人类认知的双系统理论(丹尼尔·卡尼曼提出):

  • 神经网络类似于快速、直觉化的“系统1”,擅长从数据中提取隐性模式
  • 符号系统则如同缓慢、遵循逻辑规则的“系统2”,善于执行基于显性规则的逻辑推理(Kahneman, 2011)

两者并非对立,而是互补关系。神经符号AI的核心理念就是让这两个系统协同工作,既保持灵活性,又不失透明性。

这一技术的核心价值在于:它能让AI解释自己的决策过程。 通过引入符号逻辑的透明性,神经符号模型能够为其输出提供基于规则的解释,从而构建真正可信的AI系统。

|循证知识图谱+神经符号AI,双重保障

“洞见人和”人本世界大模型创新构建了一套独特的推理系统, 在保留自研的“循证知识图谱”的基础上,我们引入了神经符号AI这一前沿技术 ,形成双重保障,提升大模型的自主推理能力。

Ø 循证知识图谱

我们自主研发的“循证知识图谱”,构建了一套融合多学科循证理论与真实业务数据的推理体系。该图谱以人格特质为基础,围绕健康、发展与风险三大核心领域,整合了需求动机、能力资源、行为倾向等多个分析维度。目前,图谱已具备超过120万条推理路径与数万个推理节点,能够在仅掌握个体部分信息的情况下,实现对潜在信息的深度推断与决策支持,从而全面、精准地勾勒出人物画像。

Ø  引入神经符号AI

神经符号AI技术的引入,弥补了单纯依赖“循证知识图谱”推理在灵活性上的不足及未覆盖领域的能力泛化性。系统会智能对比大模型生成结果与规则推理结论:结果一致则直接采纳;存在差异则启动二次检查与修正机制。这一机制既保留了符号推理的透明性与可追溯性,又融入了大模型在未覆盖领域的语义理解与泛化能力,使决策过程既可靠又可释。

|效果验证:数据说话的科学评估

为验证这一技术的实际效果,我们进行了严谨的对比实验,分别评估仅使用循证知识图谱与结合神经符号AI两种路径生成的分析报告,并邀请第三方大模型和心理专家从多个维度进行打分:

图片

 |实验过程,请勿自行转载

图片

|对比结果,请勿自行转载

实验结果显示,引入神经符号AI技术后,各项指标均有明显提升,尤其在可信度和可解释性方面表现突出,有效提升对原始输入信息的利用率,并增强报告的可读性。

|三大技术优势,让AI更懂人话

①语义对齐更精准

在语义的抽象程度上更贴近原始输入的表述方式,有助于大型语言模型实现输入内容与画像标签之间的语义对齐,从而构建标签与信息之间的潜在逻辑关联,增强分析的流畅性和洞察力。

②逻辑结构更严谨

提供的标签涉及多个维度(尤其在“事”的维度上具有高情境性与信息密度),不同维度标签之间存在递进式的逻辑结构,显著增强报告的科学严谨性与条理性。

③可解释性更强

通过引入符号逻辑的透明性,神经符号模型能够为其输出提供基于规则的解释,从而构建内生性可解释的AI系统,使决策过程可追溯、更可信。

此次我们大模型在神经符号AI领域的成功实践,为解决AI可解释性问题提供了行之有效的路径。这项技术的意义不仅在于提升当前系统的性能,更重要的是为AI技术的透明、可信、可靠应用奠定了坚实基础。

未来,随着神经符号AI技术的不断成熟,我们有望见证更多兼具灵活性与可解释性的AI系统出现在各个领域,真正实现人工智能的“透明化”运作,让人工智能不仅“有用”,而且“易懂”、“可信”。

参考文献:

1)Marra, G., Dumančić, S., Manhaeve, R., & De Raedt, L. (2024). From statistical relational to neurosymbolic artificial intelligence: A survey. Artificial Intelligence ,  328 , 104062.

doi.org/10.1016/j.a…

2)Colelough, B. C., & Mukherjee, S. (2025). Neuro-Symbolic AI in 2024: A systematic review. arXiv preprint arXiv:2501.05435 . 

arxiv.org/abs/2501.05…

3)Kahneman, D. (2011).  Thinking, fast and slow . Farrar, Straus and Giroux.

4)Bhuyan, B. P., Ramdane-Cherif, A., Tomar, R., & Singh, T. P. (2024). Neuro-symbolic artificial intelligence: A survey. Neural Computing and Applications ,  36 , 12809-12844.  

doi.org/10.1007/s00…