绑定手机号
确认绑定
在实际的生产环境中,将训练好的模型部署到服务器端,是一件具有挑战性的事情。
1.模型种类多样化
深度学习的发展带动了一批深度学习框架,如TensorFlow、Caffe、PyTorch等。
而当用户基于各种原因对一种框架进行学习时,常常会发现应用或者再训练的场景变了,因为在实际的生产环境中,可能无法对现有的框架进行直接支持。面对多样化的深度学习框架,对于生产环境的模型支持能力也提出了很大的挑战。
2.模型部署过程复杂
人工智能时代,对于所有想要涉及该领域的公司来说,想要享受这波技术红利,关键就在于一款基于好用的深度学习框架的深度学习应用,然而深度学习在生产环境中的部署不仅耗时且复杂。
对于一些具有很强技术能力的BAT等公司,他们可以通过自己编写Script,或者利用k8s工具来实现模型的部署,然而对于初次使用GPU的中小企业,或BAT中初次部署的部门来说,无疑面临着一个很大的困难。
除了以上两个典型的问题,还有服务器GPU无法充分利用、技术环境复杂等问题。
针对以上问题,智东西公开课特意为大家策划了深度学习公开课NVIDIA TensorRT专场,本专场将在10月22日19点,由NVIDIA高级系统架构师胡麟主讲,为大家全面解析模型部署过程中的挑战,并深度讲解如何使用TensorRT Inference Server加速深度学习模型的部署。