- 课程回放
- NVIDIA A100 GPU 产品简介
- NVIDIA 多实例 GPU(MIG)功能解析
- 基于 A100 GPU 的应用负载加速
- 基于 A100 GPU 的成功案例
自2018年谷歌提出 BERT 模型以来,以 BERT、GPT 等为代表的模型越来越大,短短几年时间,模型参数已经从最初3亿扩张到万亿规模。另外,据 IDC 预测,2025年全球数据量将达到175ZB(1ZB相当于10亿TB),且其中大部分数据的存储和计算、处理等都在云端完成。超大规模深度学习模型参数和数据量的指数级增长,给数据中心的计算能力提出了巨大的挑战。如何加速数据中心计算是科研人员、AI 开发者亟待解决的问题。
NVIDIA A100 Tensor Core GPU 采用 NVIDIA 全新 Ampere 架构,性能比上一代产品提升高达 20 倍,并可划分为七个 GPU 实例,以根据实际需求进行动态调整。针对 AI、数据分析和 HPC 应用场景,NVIDIA A100 GPU 能够在不同规模下实现高性能加速。此外,NVIDIA A100 GPU 提供了 40GB 和 80GB 显存两种版本,A100 80GB 将 GPU 显存增加了一倍,并提供超快速的显存带宽,可为数据中心超大型模型和数据集提供计算加速支持。
7月29日,联泰集群与智东西公开课共同策划的「NVIDIA A100 Tensor Core GPU 公开课」将开讲,由联泰集群硬件产品部高级工程师张同安主讲,主题为《基于 NVIDIA A100 Tensor Core GPU 的数据中心计算加速》。
此次讲解,张同安老师将首先对 NVIDIA A100 GPU 进行介绍,然后从技术原理、节点设置和管理方法等维度,对 NVIDIA 多实例 GPU(MIG)进行系统阐述;最后,张同安老师将围绕基于 NVIDIA A100 GPU 的应用负载加速和成功案例进行讲解。
公开课将在智东西公开课知识店铺以视频直播形式进行,下午14:00开始,14:40结束。其中,14:30-14:40为问答环节,主讲人将在线答疑。
