《表3 GSD-Overall测试集ablation分析》

《表3 GSD-Overall测试集ablation分析》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于语境感知和迁移学习的口语理解方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

表3显示了对GSD-Overall测试集的ablation分析。去除所有无监督和有监督的CLT自适应训练(CLT-UA-SA),句子正确率从95.01%下降到92.99%。进一步去除了无监督的BERT训练前步骤,句子准确率降到86.53%。用户行为F1值从98.28%下降到92.43%,时隙F1值从94.98%下降到91.11%。这些结果表明,从大规模通用无标签文本中学习到的上下文表示有助于改进用户行为分类和槽填充。在进一步去除说话人嵌入后,时隙F1的值从91.12%下降到90.43%,句子准确率从86.53%下降到86.14%,说明CLT能够利用说话人嵌入提供的额外的辨别信息。进一步去除语境话语后,意图准确率从99.95%下降到94.51%,句子准确率从86.14%下降到82.35%,说明语境话语在意图预测中起着关键作用。经过进一步的系统行为嵌入,即不使用上下文,意图准确率从94.51%下降到77.32%,用户行为F1值从93.54%下降到89.10%,句子框架准确率从82.34%下降到66.87%。这些结果表明,不使用上下文信息会显著降低SLU的性能。值得注意的是,尽管CLT-No Context的意图准确度和时隙F1的值都低于RNN-No Context,但CLT-No Context的句子准确率比RNN-No Context高,显示了CLT在加强意图和时隙一致性方面的实力。