绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智东西公开课服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
超集信息专场
已更新1期
专场简介

随着人工智能技术的发展,AI技术逐步从研究实验走向工业生产与应用。而在实际的开发过程中,总会出现各种问题,如:GPU价格昂贵,是否有充分利用每一块GPU资源;开发环境多样化,cuda、cudnn、TensorFlow、PyTorch等工具版本众多、且更新快,那么如何进行兼容与框架选择;等等;

针对开发环境多样化的问题,目前比较主流的是Docker。Docker是基于LXC容器技术使用Go开发的开源软件,可以打包代码的运行环境+代码,并且移植性强,可以把代码的运行环境+代码打包成docker镜像,在不同的平台上进行运行;相比于传统的基于硬件层面的虚拟化,Docker的是基于操作系统层面上的虚拟化,可直接利用本地主机的操作系统,更加轻量化。因此在开发过程中,Docker成为了开发者解决不同开发环境依赖的首选。

少量Docker容器相对来说比较好管理与调度, 那么基于云端的大规模容器之间又该如何调度呢?又如何加速容器云中的机器学习呢?为了让大家更好的了解容器云中的机器学习加速原理与构建,智东西公开课推出机器学习容器云公开课。8月20日晚7点,由超集信息中国平台研发总监李盘宵与NVIDIA解决方案架构师黄煜主讲,为大家深度解析AI Max机器学习平台的大规模容器调度方案。

李盘宵是超集信息中国平台研发总监,在AI、云计算平台方面具有丰富的架构和研发经验,带领团队研发了基于k8s和docker的大规模容器AI云平台,产品在行业处于领先地位。其个人擅长k8s、docker,微服务等多项技术。黄煜是NVIDIA解决方案架构师,本科和硕士毕业于北京邮电大学。他在基于3D视觉的人体关键点预测、碰撞预测等方面具有丰富经验,致力于为NVIDIA合作伙伴在GPU软硬件、深度学习开发等方面提供解决方案支持。

完结课程
课程社群
精彩问答
提问
提问
目前还没有问题,可以点击右侧的“提问按钮”提问
更多问题...