绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智东西公开课服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智东西公开课
解耦动态卷积网络的研究
学术新青年讲座 2021/10/09 19:00:00
课程讲师
周靖凯 华南理工大学 在读博士

导师刘琼;在此之前,他毕业于华南理工大学软件工程本科;博士期间他曾前往UCMerced 访学,师从MingHsuan Yang教授 和Google的Varun Jampani教授;目前他在阿里达摩院实习,感兴趣的研究方向包括目标检测与图像分类。

周靖凯
华南理工大学 在读博士

导师刘琼;在此之前,他毕业于华南理工大学软件工程本科;博士期间他曾前往UCMerced 访学,师从MingHsuan Yang教授 和Google的Varun Jampani教授;目前他在阿里达摩院实习,感兴趣的研究方向包括目标检测与图像分类。

课程提纲
  • 神经网络中标准卷积和动态卷积的问题
  • 减少计算量和内存限制的解耦动态卷积DDF
  • 在多个视觉任务网络中的性能验证
  • 讨论DDF与其他动态卷积以及Transformer之间的关系
课程简介

提到标准卷积的原理,许多人头脑中会闪现出下图的画面。用通俗的话来解释就是被卷积图片与卷积核进行对应元素相乘并求和,所以一次卷积结果的输出是一个数,最后对被卷积图片进行遍历,最终得到一个结果矩阵,说白了就是一个卷积核在图像上滑动,并求取对应元素相乘求和的过程。

目前主流的卷积神经网络中大都采用上面的卷积形式,尽管它很常用,但由于标准卷积对所有样本采用相同的卷积参数,当我们想提升模型的精度时,就需要增加模型的参数、深度、通道数,进一步导致模型的计算量加大、部署难度提升。针对参数量大,深度和通道数多的问题,许多研究人员提出了轻量级卷积神经网络模型,但因其较低的计算预算同时也限制了卷积神经网络的深度和宽度,导致模型性能下降,表示能力受限。那是否存在一种卷积能够同时提升模型表达能力,并且计算成本小呢?动态卷积因此被提出。

动态卷积的基本思路就是根据输入图像,自适应地调整卷积核参数,这种方法能够在不增加网络深度或宽度的情况下增加模型的表达能力。就像“私人定制”一样,动态卷积对不同的图像做出调整,用更适合的卷积参数进行处理。虽然动态卷积更加灵活,但其引入巨大的计算和存储开销,难以被应用于网络的每一层。

那如何设计一个计算量小且易于整合入现有 CNN 架构中的动态卷积呢?在CVPR 2021中,来自华南理工大学的周靖凯博士提出了一种解耦的动态卷积DDF。在DDF中,首先将深度动态卷积解耦为空间与通道动态滤波器,对于空间滤波器预测分支,仅仅采用1×1卷积;对于通道滤波器预测分支,采用了类似SE注意力的结构,即GAP+FC+ReLU+FC,该方法大大减少了模型的参数量,并将计算量限制在与深度卷积同等水平。实验表明,采用DDF替换ResNet50/101网络中的标准卷积分别带来1.9%与1.3%的top1精度提升,且计算量近乎减半。同时,在检测与联合上采样方面,同样证实了DDF上采样优异性。

关于这一动态卷积的更多信息可以参考周博的CVPR 2021论文《Decoupled Dynamic Filter Networks》,论文链接:https://arxiv.org/pdf/2104.14107.pdf。

9月26日晚7点,智东西公开课邀请到该论文的一作、华南理工大学在读博士周靖凯围绕《解耦动态卷积网络的研究》这一主题,深入解析解耦动态卷积DDF及其在视觉任务上的应用。

周靖凯是华南理工大学在读博士,导师刘琼,现在阿里达摩院实习。周博本科毕业于华南理工大学软件工程,博士期间曾前往UCMerced 访学,师从MingHsuan Yang教授 和Google的Varun Jampani教授。他的研究方向包括目标检测与图像分类等。

本次讲座将在智东西公开课知识社区进行,包含主讲和问答两个部分,其中主讲环节40分钟,问答环节20分钟。每个环节主讲老师都将通过视频直播进行实时讲解与互动。

精彩问答
提问
提问
目前还没有问题,可以点击右侧的“提问按钮”提问
更多问题...