绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智东西公开课服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智东西公开课
深度学习中的对抗攻击及防御
学术新青年讲座 2021/01/22 19:00:00
课程讲师
管继炜 澳大利亚麦考瑞大学研究助理

澳大利亚联邦科学与工业研究组织研究工程师,新南威尔士大学访问学者,主要研究自然语言处理和深度学习对抗攻击等领域;在中国从事服务机器人和智能音箱产品研发,工作侧重于对话系统在机器人方面的应用和在计算机视觉在智能安防方面的应用。

管继炜
澳大利亚麦考瑞大学研究助理

澳大利亚联邦科学与工业研究组织研究工程师,新南威尔士大学访问学者,主要研究自然语言处理和深度学习对抗攻击等领域;在中国从事服务机器人和智能音箱产品研发,工作侧重于对话系统在机器人方面的应用和在计算机视觉在智能安防方面的应用。

课程提纲
  • 深度学习中的对抗攻击
  • 对抗攻击的种类和防御方法
  • 对抗攻击的应用领域
  • 未来展望
课程简介

随着人工智能的飞速发展,深度学习已广泛应用于图像分类、目标检测、语音识别等领域。但由于其自身存在的技术性不足,深度学习技术在给人们生活带来极大便利的同时,也面临着新的挑战,模型本身的安全隐患加剧了被对抗样本欺骗以及数据隐私泄露等安全风险。

那什么是对抗样本呢?深度神经网络往往是非常脆弱的,很容易受到一种往图像中添加人眼无法察觉的微小扰动攻击。这类攻击不仅能够以极高的置信度误导深度神经网络输出错误的分类结果,同时还具有可迁移性,即同一张扰动图像可能攻击多个网络模型。这类攻击被称为对抗攻击,这个扰动图像即为对抗样本。在物理世界中成功实施的一系列对抗性攻击证明了此问题是所有深度学习系统的安全隐患。因此有关对抗性攻击和防御技术的研究引起了机器学习和安全领域研究者们越来越多的关注。

为了让大家更好地了解深度学习中的对抗攻击以及相关的防御方法,1月11日晚8点,智东西公开课邀请到澳大利亚麦考瑞大学研究助理管继炜参与到「机器学习前沿讲座第二季」第2讲,带来主题为《深度学习中的对抗攻击及防御》的直播讲解。在本次的讲解中,管继炜老师将会针对深度学习中的对抗样本安全问题进行全面解析,主要内容包括深度学习中的对抗攻击、对抗攻击的种类和防御方法以及对抗攻击的应用领域,最后讲师也将会展望一些对于深度学习系统安全有意义的研究方向。

管继炜是澳大利亚麦考瑞大学研究助理,澳大利亚联邦科学与工业研究组织研究工程师,新南威尔士大学访问学者,主要研究自然语言处理和深度学习对抗攻击等领域。他在中国从事服务机器人和智能音箱产品研发,工作侧重于对话系统在机器人方面的应用和在计算机视觉在智能安防方面的应用。

精彩问答
提问
提问
目前还没有问题,可以点击右侧的“提问按钮”提问
更多问题...