直通厂家
免费服务热线

Free service

hotline

010-00000000
直通厂家
热门搜索:
成功案例
当前位置:首页 > 成功案例

强核问世:NVIDIA发布A10080GBGPU,为AI超级计算带来全球最强GPU

发布时间:2022-06-13 06:14:00 阅读: 来源:直通厂家
强核问世:NVIDIA发布A10080GBGPU,为AI超级计算带来全球最强GPU

NVIDIA于今日发布NVIDIAA10080GBGPU,这一创新将支持NVIDIAHGXAI超级计算平台。该GPU内存比上一代提升一倍,能够为研究人员和工程师们提供空前的速度和性能,助力实现新一轮AI和科学技术突破。全新A100采用HBM2e技术,可将A10040GBGPU的高带宽内存增加一倍至80GB,提供每秒超过2TB的内存带宽。这使得数据可以快速传输到全球最快的数据中心GPUA100上,使研究人员能够更快地加速其应用,处理最大规模的模型和数据集。NVIDIA应用深度学习研究副总裁BryanCatanzaro表示:若想获得HPC和AI的最新研究成果,则需要构建最大的模型,而这需要比以往更大的内存容量和更高的带宽。A10080GBGPU所提供的内存是六个月前推出的前代产品的两倍,突破了每秒2TB的限制,使研究人员可以应对全球科学及大数据方面最严峻的挑战。用于NVIDIADGXTMA100和NVIDIADGXStationTMA100系统的NVIDIAA10080GBGPU也于今日发布,预计将于本季度发货。领先的系统提供商源讯、戴尔科技、富士通、技嘉科技、慧与、浪潮、联想、云达科技、超微预计将于2021年上半年,提供基于HGXA100集成底板的系统,该集成底板搭载48个A10080GBGPU。满足大流量数据工作负载需求A10080GB版本基于A10040GB的多样化功能,成为需要大量数据存储空间的各类应用的理想选择。DLRM等推荐系统模型为AI训练提供了涵盖数十亿用户和产品信息的海量表单。A10080GB可实现高达3倍加速,使企业可以重新快速训练这些模型,从而提供更加精确的推荐。HGX服务器中搭载的A10080GB还可训练具有更多参数的最大模型,如GPT2。GPT2是具有超常生成文本能力的自然语言处理模型。这就消除了对数据或模型并行架构的需求,因为实现并行架构需要花费大量时间,而且跨多个节点运行缓慢。凭借其多实例GPU(MIG)技术,A100可分割为多达7个GPU实例,每个实例具有10GB内存。该技术是一种安全的硬件隔离方法,在处理各类较小的工作负载时,可实现GPU最佳利用率。对于如RNNT等自动语言识别模型的AI推理,单个A10080GBMIG实例可处理更大规模的批量数据,将生产中的推理吞吐量提高1.25倍。在TB级零售大数据分析基准上,A10080GB将其性能提高了2倍,使其成为可对最大规模数据集进行快速分析的理想平台。随着数据的动态更新,企业可以实时做出关键决策。对于科学应用,A10080GB可为天气预报和量子化学等领域提供巨大的加速。材料模拟软件QuantumEspresso采用单节点A10080GB实现了近2倍的吞吐量提升。RIKEN计算科学中心负责人SatoshiMatsuoka表示:快速、充足的内存带宽和容量对实现高性能超级计算应用来说至关重要。具有80GBHBM2eGPU内存的NVIDIAA100提供2TB/s的全球最快带宽,可帮助我们大幅提高应用性能。A10080GB的关键特性A10080GB具备NVIDIAAmpere架构突破性特性:●第三代TensorCore核心:通过全新TF32,将上一代Volta架构的AI吞吐量提高多达20倍。通过FP64,将HPC性能提高多达2.5倍。通过INT8,将AI推理性能提高多达20倍,并且支持BF16数据格式。●更大、更快的HBM2eGPU内存:使内存容量增加一倍,在业内率先实现2TB/s以上的内存带宽。●MIG技术:将单个独立实例的内存增加一倍,可最多提供七个MIG,每个实例具备10GB内存。●结构化稀疏:将推理稀疏模型的速度提高2倍。●第三代NVLink和NVSwitch,相较于上一代互连技术,可使GPU之间的带宽增加至原来的两倍,将数据密集型工作负载的GPU数据传输速度提高至每秒600gigabytes。NVIDIAHGXAI超级计算平台A10080GBGPU是NVIDIAHGXAI超级计算平台的关键组件。该平台将NVIDIAGPU、NVIDIANVLink®、NVIDIAInfiniBand网络以及全面优化的NVIDIAAI和HPC软件堆栈的全部功能整合在一起,以提供最优越的应用性能。该平台使研究人员和科学家能够将HPC、数据分析和深度学习计算技术结合起来,共同推动科学进步。

滚动广告banner(PC端)海报
滚动广告banner(移动端)海报