- 课程回放
- 图像任务中Pipeline的构建
- 通用调参技巧与常见思路
- Kaggle图像分类&分割竞赛项目调优实战
在模型训练的时候,我们通常会直接使用一个训练好的模型在自己的数据集上进行finetune,这个过程不需要怎么调参便能取得一个比较好的效果,然而如果想要继续提高模型的精度,就需要对模型进行调参优化。
很多时候,我们经常会把调参的工作称为“炼丹”。炼丹,是将大量灵材使用丹炉将其凝炼成丹,而深度学习模型训练是把精选的原始数据,按照神经网络的规定法则通过计算框架提炼,从而得到一个远小于数据数倍的模型。相较于机器学习模型训练的方法,深度学习更加玄学,正因为如此,有越来越多的研究放在了调参上。
常见的调参方法会从加快模型训练、优化网络结构和模型训练参数等方面考虑,如增大Batch size和学习率、采用低精度的训练方式、数据增强、知识蒸馏等。当然,具体的调参方法要和具体的场景进行结合才能达到最好的性能。为了让大家更好的了解模型调参优化技巧,智东西公开课联合惠普推出了英伟达特约·惠普AI工作站专场。
在1月15日惠普AI工作站专场第1讲中,由特邀讲师、Kaggle Grandmaster吴远皓围绕《BERT模型的调参优化与Kaggle竞赛项目解析》这一主题,对BERT模型在实际应用过程中的调参技巧和结构优化方法进行了系统的讲解(点击文章底部”阅读原文”可以进行回看)。
2月4日晚8点,惠普AI工作站专场第2讲上线。这一讲定名为图像分类&分割模型调优实战公开课,由特邀讲师、Kaggle Grandmaster刘福旭主讲,主题为《图像分类&分割模型调优与Kaggle竞赛项目》。
在本次专场讲解中,刘福旭老师将会针对计算机视觉领域中的图像分类和图像分割两个任务出发,以Kaggle竞赛项目为案例,深度解析图像任务竞赛中Pipeline的构建、通用的调优技巧以及图像分类和分割两类模型在实际应用中所用到的具体优化方案。
刘福旭于2018年开始参加Kaggle竞赛,并在2019年获得Kaggle Grandmaster称号,赢得过9块金牌,全球最高排名第13名。