- 课程回放
基于动态锚框的DETR优化方法
AI新青年讲座 2022/08/10 19:00:00
课程讲师
课程提纲
- Transformer目标检测(DETR)模型优化的研究
- 针对Transformer解码器的设计方法
- 利用动态锚框设计解码器实现DETR优化DAB-DETR
- 以ResNet50为骨干的DAB-DETR有效性验证
课程简介
Detection Transformer 2020年在ECCV被提出,作为一种新兴的目标检测方法,DETR以其简洁而优雅的框架获得了越来越多的关注。DETR能在常用的目标检测数据集上取得比Faster RCNN更好的性能,然而收敛速度却显著慢于基于CNN的检测器。
为了解决这个问题,后续有许多工作试图改进DETR,来实现更快的训练收敛和更好的性能。尽管取得了很多的成果,但query在DETR中的作用仍未被完全理解。
清华大学在读博士刘世隆等人研究了Transformer的解码器部分,认为解码器的交叉注意力模块是导致收敛缓慢的原因,并提出了一种新颖的解码器设计,即使用动态锚框建模query实现模型优化的方法,同时也对query的作用有了更深入的理解。DAB-DETR使用锚框的大小来调节交叉注意力,为池化特征提供更好的位置先验,加速DETR的训练收敛。
结果表明,在COCO对象检测基准的相同设置下,DAB-DETR在类似DETR模型中取得了当前最好的结果,当使用ResNet50作为骨干时,DAB-DETR在50 epoch结果达到48.7AP。
8月10日晚上7点,「AI新青年讲座」第144讲邀请到清华大学在读博士刘世隆参与,主讲《基于动态锚框的DETR优化方法》。
精彩问答
提问
提问