洞见研究院|全面领先:连信情绪识别能力实现跨越式升级

146 阅读5分钟

在人工智能快速发展的浪潮中,连信作为专注于人工智能大模型的科技型创新企业,始终专注于大模型技术的深度探索与突破。今天,很高兴向大家宣布:针对业界普遍存在的“模型在公开数据集表现优异,但在实际场景中准确率显著下降”的问题(典型衰减率达30%),连信自主研发的“洞见人和”大模型,作为全国首个通过国家网信办双备案的人本世界模型,实现了多模态识别与理解能力的显著提升,达领先水平。该模型在基础情绪识别及异常情绪识别领域取得关键突破,有效弥合了实验室与实战场景之间的鸿沟,推动机器“读懂”人类情感的能力实现跨越式进步。

|多项情绪识别能力提升,行业领跑

①高位基础情绪识别能力:在当前实际应用场景中,超过80%的摄像头部署于高位视角,而市面上主流算法在此类视角下的情绪识别准确率普遍偏低,远未达到实用标准。相比之下,连信在高位情绪识别方面表现突出:在学校实际应用数据集上,七分类(快乐、悲伤、愤怒、恐惧、厌恶、惊讶、平静)模型准确率已达83%,三分类(积极、消极、中性)整体准确率达85%,其中负面情绪识别精准率为86%。

在标准测试集上,与业界主流厂商的公开API对比测试中,连信模型整体准确率领先20%以上,* ***在关键的情绪感知维度构筑了显著的竞争优势。

|注:标准测试集来源:目前暂无公开的高位基础情绪数据集,故我们模拟了真实应用场景,采集了一批数据集,并由多位心理学专家进行标注,以用于以下测试对比

图片

|此图为连信原创 请勿私自转载(以上数据基于标准测试集 与各大厂商横向对比)

图片

|此图为连信原创 请勿私自转载(以上数据基于标准测试集 与各大厂商横向对比)

②怼脸基础情绪识别能力:在公开数据测试集上,连信怼脸基础情绪识别能力总体表现和外部厂商持平,负面情绪识别能力超其他头部厂商约10%;在模拟公安审讯场景中,整体准确率达96%,负面情绪精准率超85%;在实际司法社矫场景中,整体准确率为95%,展现出优秀的实战适配性。

③异常情绪识别能力:目前市面上的异常情绪识别技术主要基于肌肉微振动方案,需依赖高精度影像设备,并在静态条件下长时间(约1–2分钟)采集信号。相比之下,连信采用的识别模型支持静态图像与视频流输入,能够在极短时间内(推理延迟低至3ms)完成异常情绪的快速识别。

以攻击、压力等典型异常状态识别为例,该模型在公开数据集测试中精准率超过85%;而在教育实战场景中,精准率仍达73%,衰减率控制在10%左右,已具备可靠的高风险行为预警能力。

|核心技术实现路径

◎构建高质量数据集: 以心理学专家标注的高位数据作为核心训练集, 确保训练数据分布与实际应用但一致性;同时引入自采实际场景数据与部分开源数据集(AffectNet、RAF-DB等) ,增强模型对压力特征的学习能力。

◎增强稀缺压力样本: 在基础增强(如随机裁剪、人脸对齐、颜色扰动等)方法之外,我们还针对压力类样本引入Mixup增强技术,有效扩大特征空间,提升模型在少数类识别上的泛化性能。

◎优化模型训练与评估体系:基于Paddle框架的PPLCNet_x2_5架构, 采用自定义加权交叉熵损失函数,系统调整压力类别的损失权重,并通过回流测试集持续评估精准率、召回率、F1分数等关键指标,确保模型在真实场景中的稳定性与可靠性。

|多场景实战落地,泛化能力卓越

教育场景: 专门针对学校高位监控画面中的低像素、多角度、部分遮挡等复杂条件优化,模型在保持高精度的同时,对图像质量要求显著降低,有力支撑校园心理健康监测与早期预警体系建设。

公安/司法场景:面向高敏感、高要求场景,对模型进行进行强化训练,在保持高精度的同时增强对微表情、瞬时情绪的捕捉能力。在司法社矫、公安审讯等实战场景中表现出优异的稳定性和可靠性。

跨场景泛化能力: 通过多源数据融合训练与领域自适应技术,模型在心理健康、安防、员工管理等多个领域间展现出优秀的泛化性能,实现技术成果的快速迁移与广泛赋能。

图片