机器学习与对话AI前沿技术解析

65 阅读2分钟

某中心在AAAI展示机器学习与对话AI新方法

作为人工智能促进协会(AAAI)年会的金牌赞助商,某中心研究人员共同发表了八篇论文。Alexa AI团队高级首席科学家Dilek Hakkani-Tür参与其中三篇论文的研究。

多领域AI研究成果

MA-DST:基于多注意力的可扩展对话状态跟踪

通过在三层不同粒度上使用注意力机制,将最先进的对话状态跟踪准确率提升5%。该方法能有效识别对话历史中与当前回合相关的关键信息。

MMM:多阶段多任务学习用于多选阅读理解

采用两阶段微调策略:先在大型自然语言推理数据集上进行粗调,再针对特定领域问题进行精细调校。在多个基准测试集上实现16%的准确率提升。

交互式视觉语言导航框架

利用强化学习训练机器人主动寻求帮助。模拟实验显示,每次导航任务中发起一次求助请求可使任务完成率提高15%。

自我学习与模型优化

基于反馈的大规模对话AI自学习系统

通过建模用户请求序列作为吸收马尔可夫链,利用隐式反馈信号自动改进自然语言理解模型。测试中系统的有效替换率达到12:1的胜率比。

内部表示知识蒸馏技术

让学生模型不仅模仿教师模型的输出,还学习其内部状态表示。在BERT模型实验中,该方法在多个基准数据集上实现5-10%的性能提升。

自然语言处理创新

TANDA:预训练Transformer模型的迁移适配

通过两阶段微调策略,在答案句子选择任务中将最先进模型的错误率降低50%。

分层注意力掩码对话结构建模

采用注意力掩码技术编码对话的层次结构,在多个数据集上显著提升了对话结构推断的准确率。

个性化交互研究

在对话推荐系统研讨会上发表的论文探索了基于用户行为信号的玩笑技能个性化训练方法,使用两种隐式满意度信号训练的模型均优于基线模型。

相关技术细节可参考各论文的实验数据和方法论述