绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智东西公开课服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智东西公开课
无需复杂设计的图像识别性能提升方法研究
AI新青年讲座 2023/02/06 19:00:00
课程讲师

师从杨易和朱霖潮老师;研究方向为多模态和表示学习,相关工作发表于ICCV、CVPR等会议。

梁远智
悉尼科技大学 在读博士

师从杨易和朱霖潮老师;研究方向为多模态和表示学习,相关工作发表于ICCV、CVPR等会议。

课程提纲
  • 图像识别的研究及样本挖掘问题
  • 样本泛化难点及表示方法
  • 简单在线探针评价训练特征质量
  • 基于在线探针约束训练并提升泛化性能
课程简介

作为计算机视觉领域的经典任务,针对分类任务的各种网络、数据和学习方式层出不穷。针对 FGVC,抛开修改结构(FGVC 中主要是各种 part based model)和引入数据等固有思路,简单的适当的困难样本挖掘足以明显的提升性能,只用简单的 backbone 和适当的困难样本挖掘,这样一个简单的 pipeline 却能击败许多复杂的方法。

然而,悉尼科技大学梁远智博士等人在进一步的改进过程中开始质疑样本选择的标准和方式。究竟什么样的样本是困难样本?什么样的样本是学的不好的样本?confidence 偏低的吗?那多少算偏低?典型的 FGVC 数据集中,很多样本真人看起来都困难但网络的 confidence 依旧很高,那我们应该如何让网络进一步泛化各样的样本?在 overfit train set 的前提下,如何找到那些网络记住了但没学明白的内容?如何拨开 overfit 的迷雾,去找到隐藏在 high confidence 之下,特征表示的并不好的样本?

在 CVPR 2022 上,梁远智等人提出了一种 online linear probing 来反应训练过程中网络特征表示的质量,即 ELP( episodic linear probing)。ELP 也是学习分类detached掉的特征,并每隔一段时间就重新初始化。这使得其能够得到类似 linear

probe 的评价特征质量的能力,而不会随着不断的训练而 overfit。

同时,利用 ELP,梁远智等人等人还构建了 ELP-SR: ELP-suitable regularization。通过 ELP-SR,网络需要进一步学习如何满足 ELP。特征表达不仅仅达到 main classifier 可分,其可分辨力最好能够达到一个弱如ELP的弱分类器依旧可以识别。通过这一方法,可以使得网络的特征学习能够突破桎梏,在 backbone 和 main classifier 可能 overfit 的条件下,进一步学习更加具有区分度的特征,提升网络自身的泛化性能。

2月6日晚7点,AI新青年讲座第192讲邀请到悉尼科技大学在读博士梁远智参与,主讲《无需复杂设计的图像识别性能提升方法研究》。

精彩问答
提问
提问
目前还没有问题,可以点击右侧的“提问按钮”提问
更多问题...