绑定手机号
获取验证码
确认绑定
提问
0/255
提问
订阅开课提醒需关注服务号
回答成功
知道了
扫码关注智猩猩服务号登录
请使用微信扫描二维码
扫描二维码分享给微信好友
您已订阅成功,有新课程,我们将第一时间提醒您。
知道了
发送提问成功
回答可在
“我的——我的提问”中查看
知道了
失败
欢迎来智东西
关注我们
智东西
车东西
芯东西
智猩猩
提问
|
回答
  • 使用TensorRT Inference Server,模型能跑在多个GPU上吗?
    2020-05-29 13:26:12
    全部回答内容
    登录之后查看
    登录
    NVIDIA高级系统架构师胡麟: 单个的模型并不能切分的同时去跑在多个GPU上,TensorRT Inference Server是知道底层的硬件资源的,它会从模型仓库中加载模型,然后做负载均衡、执...
    回答
相关问答