NVIDIA A2 Tensor Core GPU 具有低功耗、小尺寸和高性能的特点,可为在边缘部署 NVIDIA AI 的智能视频分析 (IVA) 提供入门级推理功能。该 GPU 采用半高 PCIe 4.0 卡的设计,并提供 40-60 瓦的低热设计功耗 (TDP) 配置功能,能为大规模部署中的不同服务器带来通用的推理加速能力。
推理性能提升高达 20 倍
部署 AI 推理技术的目的是通过智能、实时的体验为消费者打造更便利的生活。与 CPU 服务器相比,搭载 NVIDIA A2 Tensor Core GPU 的边缘和入门级服务器可提供高达 20 倍的推理性能,可立即将服务器升级到能处理现代 AI 的水平。
在智能边缘实现更高的 IVA 性能
在智慧城市、制造和零售等智能边缘用例中,搭载 NVIDIA A2 GPU 的服务器最高可将性能提升 1.3 倍。与前几代 GPU 相比,运行 IVA 工作负载的 NVIDIA A2 GPU 最高可将性价比和能效分别提升 1.6 倍和 10%,从而改善部署效率。
针对服务器进行优化
针对 5G 边缘和工业环境这样空间和散热要求受限制的入门级服务器,NVIDIA A2 为其推理工作负载和部署进行了优化。A2 提供了在低功耗范围内运行的半高外形,从 60 瓦到 40 瓦的 TDP,使其成为众多服务器的理想选择。
领先的跨云、数据中心和边缘的 AI 推理性能
AI 推理继续推动跨行业的突破性创新,包括消费互联网、医疗保健和生命科学、金融服务、零售、制造和超级计算。A2 的小巧尺寸和低功耗与 NVIDIA A100 和 A30 Tensor Core GPU 相结合,可提供跨云、数据中心和边缘的完整 AI 推理产品组合。A2 和 NVIDIA AI 推理产品组合可确保使用更少的服务器和更少的功率部署 AI 应用,从而以大幅降低的成本获得更快的洞察力。
已为企业使用做好准备
NVIDIA AI Enterprise 是一套端到端云原生 AI 和数据分析软件,经认证可在基于服务器虚拟化平台的虚拟基础设施(带有 VMware vSphere)中的 A2 上运行。这允许在混合云环境中管理和扩展 AI 和推理工作负载。
主流 NVIDIA 认证系统
搭载 NVIDIA A2 的 NVIDIA 认证系统™ 将计算加速功能与高速、安全的 NVIDIA 网络整合到 NVIDIA 的 OEM 合作伙伴构建和销售的企业数据中心服务器中。利用此计划,客户可以在单个高性能、经济高效且可扩展的基础设施上识别、获取和部署系统,以运行 NVIDIA NGC™ (NVIDIA GPU CLOUD) 目录中的传统和多样化的现代 AI 应用程序。
注:与 NVIDIA 产品相关的图片或视频(完整或部分)的版权均归 NVIDIA Corporation 所有。