绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智猩猩服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智猩猩
提问
|
回答
提问
  • 在大规模分布式训练过程中,如何做到计算和通信重叠?
    2020-05-20 19:58:14
    全部回答内容
    登录之后查看
    登录
    NVIDIA 中国区HPC/DL 解决方案架构师程帅: 在GPU里面的话,因为通信的过程中和训练过程中其实底层都是CUDA,然后对于CUDA,它可以通过多流的方式做到有计算是一个或一些kernel,...
    回答
相关问答