绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智东西公开课服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智东西公开课
MLPerf-深度学习模型极致优化实战解析
2020/11/05 19:00:00
课程讲师
刘姝 浪潮AI算法优化高级工程师

主要研究深度学习算法在推理、训练领域的性能优化,专注模型压缩方向的深度优化与推理优化软件开发,同时对深度学习模型分布式训练优化有丰富经验。

刘姝
浪潮AI算法优化高级工程师

主要研究深度学习算法在推理、训练领域的性能优化,专注模型压缩方向的深度优化与推理优化软件开发,同时对深度学习模型分布式训练优化有丰富经验。

课程提纲
  • MLPerf全球AI基准测试介绍
  • 深度学习模型压缩加速原理
  • ResNet50的极致化压缩优化技巧
  • 浪潮在MLPerf竞赛中模型优化最佳实践
课程简介

深度学习模型作为机器学习的前沿方向,对推进人工智能发展具有重要意义。然而,由于计算的复杂度以及参数冗余,深度学习模型在一些场景和设备上很难进行部署,通常需要借助模型压缩、优化加速等方法突破瓶颈。

目前,模型压缩方法可以分为线性或非线性量化、结构或非结构剪枝、网络结构搜索等,可以有效的降低参数冗余,从而减少存储占用、通信带宽和计算复杂度。而模型优化则包括了Op-level的快速算法、Layer-level的快速算法、以及如TensorRT、TVM等优化工具,能够提高网络的计算效率。

浪潮作为领先的AI计算厂商,在模型压缩与调优方面不断创新并取得了显著成果。在全球权威AI基准测试MLPerf最新公布的推理测试榜单中,浪潮AI服务器NF5488A5创下了数据中心22个赛项中的13项性能纪录,以绝对优势领先。在焦点赛道Resnet50基准性能测试中,NF5488A5表现出了54.9万/秒的推理性能。同时,在此前MLPerf训练榜单中,NF5488A5在ResNet50训练任务中也刷新了性能纪录,单机性能高居榜首。

11月5日晚7点,「浪潮元脑专场」第4讲邀请到浪潮AI算法优化高级工程师刘姝进行直播讲解。这一讲定名为模型压缩公开课。刘姝将从深度学习模型压缩的原理出发,详解ResNet50的极致化压缩优化技巧和浪潮在MLPerf竞赛中模型优化最佳实践,与元脑生态伙伴分享浪潮最新的技术创新成果。

刘姝主要研究深度学习算法在推理、训练领域的性能优化,专注模型压缩方向的深度优化与推理优化软件开发,同时对深度学习模型分布式训练优化有丰富经验。

精彩问答
提问
提问
目前还没有问题,可以点击右侧的“提问按钮”提问
更多问题...