绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智东西公开课服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智东西公开课
基于动态锚框的DETR优化方法
AI新青年讲座 2022/08/10 19:00:00
课程讲师
刘世隆 清华大学 清华大学在读博士

粤港澳大湾区数字经济研究院(IDEA)实习生,研究兴趣为计算机视觉,尤其关注目标检测、多模态理解等工作,目前在ICLR,CVPR等会议发表多篇工作。

刘世隆
清华大学 清华大学在读博士

粤港澳大湾区数字经济研究院(IDEA)实习生,研究兴趣为计算机视觉,尤其关注目标检测、多模态理解等工作,目前在ICLR,CVPR等会议发表多篇工作。

课程提纲
  • Transformer目标检测(DETR)模型优化的研究
  • 针对Transformer解码器的设计方法
  • 利用动态锚框设计解码器实现DETR优化DAB-DETR
  • 以ResNet50为骨干的DAB-DETR有效性验证
课程简介

Detection Transformer 2020年在ECCV被提出,作为一种新兴的目标检测方法,DETR以其简洁而优雅的框架获得了越来越多的关注。DETR能在常用的目标检测数据集上取得比Faster RCNN更好的性能,然而收敛速度却显著慢于基于CNN的检测器。

为了解决这个问题,后续有许多工作试图改进DETR,来实现更快的训练收敛和更好的性能。尽管取得了很多的成果,但query在DETR中的作用仍未被完全理解。

清华大学在读博士刘世隆等人研究了Transformer的解码器部分,认为解码器的交叉注意力模块是导致收敛缓慢的原因,并提出了一种新颖的解码器设计,即使用动态锚框建模query实现模型优化的方法,同时也对query的作用有了更深入的理解。DAB-DETR使用锚框的大小来调节交叉注意力,为池化特征提供更好的位置先验,加速DETR的训练收敛。

结果表明,在COCO对象检测基准的相同设置下,DAB-DETR在类似DETR模型中取得了当前最好的结果,当使用ResNet50作为骨干时,DAB-DETR在50 epoch结果达到48.7AP。

8月10日晚上7点,「AI新青年讲座」第144讲邀请到清华大学在读博士刘世隆参与,主讲《基于动态锚框的DETR优化方法》。

精彩问答
提问
提问
目前还没有问题,可以点击右侧的“提问按钮”提问
更多问题...