绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智猩猩服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智猩猩
使用TensorRT Inference Server加速深度学习模型的部署
Tensor RT 2019/10/22 19:00:00
课程讲师
胡麟 NVIDIA 高级系统架构师

硕士毕业于西安交通大学,目前在NVIDIA从事企业级客户深度学习解决方案架构工作,拥有多年异构计算从业经验。

胡麟
NVIDIA 高级系统架构师

硕士毕业于西安交通大学,目前在NVIDIA从事企业级客户深度学习解决方案架构工作,拥有多年异构计算从业经验。

课程提纲
  • 部署深度学习模型的挑战
  • 如何利用TensorRT Inference Server提升模型部署效率
  • Demo:使用TensorRT Inference Server部署图像分类模型
课程简介

在实际的生产环境中,将训练好的模型部署到服务器端,是一件具有挑战性的事情。

1.模型种类多样化

深度学习的发展带动了一批深度学习框架,如TensorFlow、Caffe、PyTorch等。

而当用户基于各种原因对一种框架进行学习时,常常会发现应用或者再训练的场景变了,因为在实际的生产环境中,可能无法对现有的框架进行直接支持。面对多样化的深度学习框架,对于生产环境的模型支持能力也提出了很大的挑战。

2.模型部署过程复杂

人工智能时代,对于所有想要涉及该领域的公司来说,想要享受这波技术红利,关键就在于一款基于好用的深度学习框架的深度学习应用,然而深度学习在生产环境中的部署不仅耗时且复杂。

对于一些具有很强技术能力的BAT等公司,他们可以通过自己编写Script,或者利用k8s工具来实现模型的部署,然而对于初次使用GPU的中小企业,或BAT中初次部署的部门来说,无疑面临着一个很大的困难。

除了以上两个典型的问题,还有服务器GPU无法充分利用、技术环境复杂等问题。

针对以上问题,智东西公开课特意为大家策划了深度学习公开课NVIDIA TensorRT专场,本专场将在10月22日19点,由NVIDIA高级系统架构师胡麟主讲,为大家全面解析模型部署过程中的挑战,并深度讲解如何使用TensorRT Inference Server加速深度学习模型的部署。

精彩问答
提问
提问
目前还没有问题,可以点击右侧的“提问按钮”提问
更多问题...