不在现场,还看最干货的学术报告!
大家好这是一个学术报告专栏。核心阅读编辑会不时地选择并亲自主持会议。他将向每个人提供科学技术领域最好的学术报告,为学生录制枯燥的报告,并尽最大努力获得第一手PPT和现场视频——足够枯燥和新鲜!我希望这些杰出的青年学者和专家解庆之的学术报告能使你在业余时间阅读的知识更有价值。
人工智能论坛现在数量众多,每100个讲座中就有一个是关于硬货和干货的。自2019年1月19日人工智能未来标准青年学术论坛启动以来,已经连续举办了12届,吸引了数万人报名。招生群体覆盖全国30多个省份,13个国内外国家,400多所大学和研究机构。2020年1月5日下午,第12届人工智能未来对话青年学术论坛(百度奖学金博士生特别会议)在北京百度科技园K6报告厅举行。清华大学董为您带来“深度学习的逆境鲁棒性”报告董,,
,清华大学计算机系人工智能研究所三年级博士生,导师朱军教授主要研究方向是机器学习和计算机视觉,以及对抗环境下深度聚焦学习的鲁棒性研究。
报告内容:针对现有深度学习模型容易被攻击者的对策样本欺骗的问题,dong博士关于对策环境中深度学习的鲁棒性的三项研究成果
深度学习的对抗鲁棒性
深度学习在过去的两年中取得了很大的进步,相关的模型也已经在各种系统中使用。然而,与此同时,深度学习模型的可靠性也受到许多测试。各种发现表明,深度学习模型很容易被攻击者的计数器样本所欺骗,即攻击者在原始样本中添加一些微小的样本,这些样本会导致模型对该项目进行错误分类。有些样本与人类眼中的原始样本没有什么不同,但是深度学习模型做出了错误的判断,这将带来一些非常实际的安全风险。对抗样本也存在于实际系统中。如果在交通数据中加入一些噪声,自动驾驶系统会做出错误的预测。
对策样本可以归结为优化问题。为了解决这种优化问题,有许多方法可以找到对策样本或直接优化对策样本许多方法需要获得网络梯度,即网络参数信息,这称为白盒攻击,而没有网络梯度的方法称为黑盒攻击。基于对策样本的迁移性能,即一个模型的对策样本可以欺骗其他模型,而其他模型可以生成对策样本。另一方面,我们可以估计模型的梯度或通过随机搜索来搜索反样本。
董博士的第一项工作是动量迭代样本生成方法针对样本的迁移性能和白盒攻击能力无法平衡。借鉴优化领域中的动量算法,在对抗样本生成过程中记录并使用动量叠加过程,不仅改善了对抗样本的迁移性能,提高了对黑箱模型的攻击能力,而且对白箱模型也不太敏感。
现有的一些方法可以提高模型的韧性董博士的第二项工作是通过图像变换和频域变换,在保持与其他算法相同的攻击效率的同时,降低对当前模型的敏感性,从而更好地对黑盒模型进行防御攻击。
的第三个任务是将未知网络梯度的攻击方法和网络梯度估计方法结合起来,更有效地改进黑盒攻击
评论点
我们分享人工智能学习和发展干货