本技术提出了一种多子空间联合的人工智能识别模型对抗性防御策略。该方法通过分析输入样本在模型各节点和各层的激活值向量,将这些向量映射到不同的子空间中,以评估特征嵌入子空间的一致性。通过这种一致性判别,可以有效防御对抗性攻击,增强模型的鲁棒性。
背景技术
目前主流的深度学习网络系统是极其脆弱的。攻击者通过在源图像数据上增加人类难以通过感官辨识到的细微改变,例如仅使得几个像素点的值发生改变,但是却可以让机器学习模型接受并做出错误的分类决定。即输出错误的判别结果。对抗样本使目前世界上绝大多数基于深度学习的安防监控系统变得极其不可靠。因此增强人工智能图像识别模型的对抗防御,即识别对抗样本,使得模型不受对抗攻击意义十分重要。
由于对抗样本的可配置空间巨大,对抗攻击的攻击时机、攻击方式、攻击参数的不可预知性,使深度网络对攻击样本的甄别、防御变得十分困难。现有的单一的对抗防御方法,难以应对多样的对抗攻击。目前绝大多数对于对抗样本防御的研究基本上只针对若干种典型的对抗攻击算法,无法做到全谱系防御。
实现思路