-
在ICCV 2019中,pcl-adversarial-defense通过约束深度神经网络的隐藏层空间以实现对抗性防御
资源介绍
通过限制深层神经网络(ICCV'19)的隐藏空间进行对抗性防御
该存储库是ICCV'19论文《的PyTorch实施,它。
为了对抗对抗性攻击,我们提出了原型一致性损失,以按类别区分深度网络的中间特征。 从图中可以看出,存在这样的对抗样本的主要原因是潜在特征空间中学习特征的紧密接近。
我们提供了用于重现论文结果的脚本。
克隆存储库
将此存储库克隆到所需的任何位置。
git clone https://github.com/aamir-mustafa/pcl-adversarial-defense
cd pcl-adversarial-defense
Softmax(交叉熵)训练
为了加快针对我们提出的损失形成聚类的过程,我们首先使用交叉熵损失训练模型。
softmax_training.py (用于初始softmax训练)。
经过培训的检查点将保存在Models_Softmax文