标签:综述 攻击 样本 学习 神经网络 2021 深度 对抗
1、《针对深度学习的对抗攻击综述》-密码学报-2021年8月
①通过对原始样本加入微小扰动所生成的对抗样本能够有效欺骗深度学习模型,并将生成对抗样本的方式称为对抗攻击。
②对抗攻击能够使深度学习以高置信度的方式给出错误的输出,实现针对深度学习检测服务的逃逸攻击。
③深度学习缺乏可解释性由其自身结构和运行机理决定,具体表现在以下3个方面:
(1)深度神经网络的神经元数量大、参数多;
(2)神经网络采用分层结构,层次之间连接方式多样;
(3)神经网络自主学习样本特征,而许多特征人类无法理解。
④在计算机视觉领域,对抗样本现象是指对输入图像加入人眼视觉难以感知的轻微扰动,导致基于深度学习的图像分类器以高置信度的方式输出错误的结果。
⑤
⑥
⑦
⑧
⑨
分类的思维导图
⑩
标签:综述,攻击,样本,学习,神经网络,2021,深度,对抗 来源: https://www.cnblogs.com/shizyxya/p/16396073.html
本站声明: 1. iCode9 技术分享网(下文简称本站)提供的所有内容,仅供技术学习、探讨和分享; 2. 关于本站的所有留言、评论、转载及引用,纯属内容发起人的个人观点,与本站观点和立场无关; 3. 关于本站的所有言论和文字,纯属内容发起人的个人观点,与本站观点和立场无关; 4. 本站文章均是网友提供,不完全保证技术分享内容的完整性、准确性、时效性、风险性和版权归属;如您发现该文章侵犯了您的权益,可联系我们第一时间进行删除; 5. 本站为非盈利性的个人网站,所有内容不会用来进行牟利,也不会利用任何形式的广告来间接获益,纯粹是为了广大技术爱好者提供技术内容和技术思想的分享性交流网站。