《表1 Bert模型面对不同攻击时的性能指标》

《表1 Bert模型面对不同攻击时的性能指标》   提示:宽带有限、当前游客访问压缩模式
本系列图表出处文件名:随高清版一同展现
《基于GScRNN神经网络的对抗样本防御方法》


  1. 获取 高清版本忘记账户?点击这里登录
  1. 下载图表忘记账户?点击这里登录

实验对比几种常见的防御方法:数据增强(DA)、对抗训练(Adv)以及基于原补偿策略的ScRNN矫正网络。模型在不同防御方法下的文本分类正确率的如表1所示,结果显示Bert在不使用任何防御方法进行一个普通文本分类任务时正确率高达88.4%,但是在面对存在攻击样本的数据集时正确率大幅度下降:替换字符(61.1%)、删除字符(57.6%)、增加字符(47.2%)。在添加防御方法后,在无攻击状态下虽然正确率有小幅下降,如BERT+ScRNN(86.9%),但是在对抗攻击样本的攻击状态中却有着更优异的表现(80.2%)。在引入基于高斯分布的重构中性词后,效果在原实验结果上提升了1个百分点(81.8%)。