NVIDIA A800 PCIe GPU

NVIDIA A800 Tensor Core GPU可针对AI、数据分析和HPC应用场景,在不同规模下实现出色的加速,有效助力更高性能的弹性数据中心。A800采用NVIDIA Ampere架构,是NVIDIA数据中心平台的引擎。A800的性能比上一代产品提升高达20倍,并可划分为七个GPU实例,以根据变化的需求进行动态调整。A800提供40GB和80GB显存两种版本,A800 80GB将GPU 显存增加了一倍,并提供超快速的显存带宽(每秒超过 2 万亿字节 [TB/s]),可处理超大型模型和数据集。
NVIDIA A800 Tensor Core GPU可针对AI、数据分析和HPC应用场景,在不同规模下实现出色的加速,有效助力更高性能的弹性数据中心。A800采用NVIDIA Ampere架构,是NVIDIA数据中心平台的引擎。A800的性能比上一代产品提升高达20倍,并可划分为七个GPU实例,以根据变化的需求进行动态调整。A800提供40GB和80GB显存两种版本,A800 80GB将GPU 显存增加了一倍,并提供超快速的显存带宽(每秒超过 2 万亿字节 [TB/s]),可处理超大型模型和数据集。

 

深度学习训练

当今的 AI 模型面临着对话式 AI 等更高层次的挑战,这促使其复杂度呈爆炸式增长。训练这些模型需要大规模的计算能力和可扩展性。

NVIDIA A800 Tensor Core 借助 Tensor 浮点运算 (TF32) 精度,可提供比 NVIDIA Volta 高 20 倍之多的性能,并且无需更改代码;若使用自动混合精度和 FP16,性能可进一步提升 2 倍。与 NVIDIA® NVLink®、NVIDIA NVSwitch™、PCIe 4.0、NVIDIA® InfiniBand® 和 NVIDIA Magnum IO™SDK 结合使用时,它能扩展到数千个 A800 GPU。

2048 个 A800 GPU 可在一分钟内成规模地处理 BERT 之类的训练工作负载,这是非常快速的解决问题速度。

对于具有庞大数据表的超大型模型(例如深度学习推荐模型 [DLRM]),A800 80GB 可为每个节点提供高达 1.3TB 的统一显存,而且吞吐量比 A800 40GB 多高达 3 倍。

NVIDIA 的领先地位在MLPerf 这个行业级 AI 训练基准测试中得到印证,创下多项性能纪录。

 

深度学习推理

A800 引入了突破性的功能来优化推理工作负载。它能在从 FP32 到 INT4 的整个精度范围内进行加速。多实例 GPU (MIG) 技术允许多个网络同时基于单个 A800 运行,从而优化计算资源的利用率。在 A800 其他推理性能增益的基础之上,仅结构稀疏支持一项就能带来高达两倍的性能提升。

在 BERT 等先进的对话式 AI 模型上,A800 可将推理吞吐量提升到高达 CPU 的 249 倍。

在受到批量大小限制的极复杂模型(例如用于自动语音识别用途的 RNN-T)上,显存容量有所增加的 A800 80GB 能使每个 MIG 的大小增加一倍,并提供比 A800 40GB 高 1.25 倍的吞吐量。

NVIDIA 产品的出色性能在MLPerf 推理测试中得到验证。A800 再将性能提升了 20 倍,进一步扩大了这种性能优势。

 

高性能计算

为了获得新一代的发现成果,科学家们希望通过仿真来更好地了解我们周围的世界。

NVIDIA A800 采用双精度 Tensor Core,实现了自 GPU 推出以来高性能计算性能的巨大飞跃。结合 80GB 的超快 GPU 显存,研究人员可以在 A800 上将 10 小时双精度仿真缩短到 4 小时以内。HPC 应用还可以利用 TF32 将单精度、密集矩阵乘法运算的吞吐量提高高达 10 倍。

对于具有超大数据集的高性能计算应用,显存容量增加的 A800 80GB 可在运行材料仿真 Quantum Espresso 时将吞吐量提升高达 2 倍。极大的显存容量和超快速的显存带宽使 A800 80GB 非常适合用作新一代工作负载的平台。

 

高性能数据分析

数据科学家需要能够分析和可视化庞大的数据集,并将其转化为宝贵见解。但是,由于数据集分散在多台服务器上,横向扩展解决方案往往会陷入困境。

搭载 A800 的加速服务器可以提供必要的计算能力,并能利用大容量显存、超过 2 TB/s 的显存带宽以及通过 NVIDIA® NVLink® 和 NVSwitch™ 实现的可扩展性,处理这些工作负载。通过结合 InfiniBand、NVIDIA Magnum IO™和 RAPIDS™开源库套件(包括用于执行 GPU 加速的数据分析的 RAPIDS Accelerator for Apache Spark),NVIDIA 数据中心平台能够加速这些大型工作负载,并实现超高的性能和效率水平。

在大数据分析基准测试中,A800 80GB 提供的见解吞吐量比 A800 40GB 高两倍,因此非常适合处理数据集大小急增的新型工作负载。

 

为企业提高资源利用率

A800 结合MIG 技术可以更大限度地提高 GPU 加速的基础设施的利用率。借助 MIG,A800 GPU 可划分为多达 7 个独立实例,让多个用户都能使用 GPU 加速功能。借助 A800 40GB,每个 MIG 实例可分配多达 5GB,而随着 A800 80GB 显存容量的增加,此大小可翻倍至 10GB。

MIG 与 Kubernetes、容器和基于服务器虚拟化平台的服务器虚拟化配合使用。MIG 可让基础设施管理者为每项作业提供大小合适的 GPU,同时确保服务质量 (QoS),从而扩大加速计算资源的影响范围,以覆盖每位用户。

 

注:与 NVIDIA 产品相关的图片或视频(完整或部分)的版权均归 NVIDIA Corporation 所有。

粤公网安备 44030502006483号、 粤ICP备15047669号
  • 捷易科技联系人