- 课程回放
MLPerf-深度学习模型极致优化实战解析
2020/11/05 19:00:00
课程讲师
课程提纲
- MLPerf全球AI基准测试介绍
- 深度学习模型压缩加速原理
- ResNet50的极致化压缩优化技巧
- 浪潮在MLPerf竞赛中模型优化最佳实践
课程简介
深度学习模型作为机器学习的前沿方向,对推进人工智能发展具有重要意义。然而,由于计算的复杂度以及参数冗余,深度学习模型在一些场景和设备上很难进行部署,通常需要借助模型压缩、优化加速等方法突破瓶颈。
目前,模型压缩方法可以分为线性或非线性量化、结构或非结构剪枝、网络结构搜索等,可以有效的降低参数冗余,从而减少存储占用、通信带宽和计算复杂度。而模型优化则包括了Op-level的快速算法、Layer-level的快速算法、以及如TensorRT、TVM等优化工具,能够提高网络的计算效率。
浪潮作为领先的AI计算厂商,在模型压缩与调优方面不断创新并取得了显著成果。在全球权威AI基准测试MLPerf最新公布的推理测试榜单中,浪潮AI服务器NF5488A5创下了数据中心22个赛项中的13项性能纪录,以绝对优势领先。在焦点赛道Resnet50基准性能测试中,NF5488A5表现出了54.9万/秒的推理性能。同时,在此前MLPerf训练榜单中,NF5488A5在ResNet50训练任务中也刷新了性能纪录,单机性能高居榜首。
11月5日晚7点,「浪潮元脑专场」第4讲邀请到浪潮AI算法优化高级工程师刘姝进行直播讲解。这一讲定名为模型压缩公开课。刘姝将从深度学习模型压缩的原理出发,详解ResNet50的极致化压缩优化技巧和浪潮在MLPerf竞赛中模型优化最佳实践,与元脑生态伙伴分享浪潮最新的技术创新成果。
刘姝主要研究深度学习算法在推理、训练领域的性能优化,专注模型压缩方向的深度优化与推理优化软件开发,同时对深度学习模型分布式训练优化有丰富经验。
精彩问答
提问
提问