據HOTHAREDWARE報道,英偉達官方發布了基于Ampere架構的A100已經被認為是高性能計算集群(HPC)的首選GPU,但為了鞏固自身在行業之中的位置,特別是競爭對手AMD發布了基于新一代CDNA架構的Instinct MI100加速卡,英偉達推出了搭載80GB HBM2e大容量顯存版的A100。
根據NVIDIA的介紹,A100 80GB版可提供2TB/s的帶寬,高于40GB HBM版的1.6TB/s。英偉達將其稱為全球最快的數據中心GPU,認為其非常適合各種對數據有巨大需求的應用,比如天氣預報和量子化學等。
這一次升級,除了將顯存增大了一倍,也擁有更快的速度。被稱為HBM2e的HBM2改進型,頻率為3.2Gbps,而A100 40GB版的頻率為2.4Gbps,這就是顯存帶寬增加的原因。其他規格基本保持不變,包括19.5 TFLOPS的單精度性能和9.7 TFLOPS的雙精度性能。


"在HPC和AI研究中取得最先進的成果需要建立最大規模的數據模型,但這些模型對內存容量和帶寬的要求比以往任何時候都高",英偉達深度學習研究副總裁Bryan Catanzaro,"A100 80GB GPU提供的顯存是半年前剛剛推出的前代產品的兩倍,并突破了每秒2TB的障礙,使研究人員能夠應對世界上最重要的科學和大數據挑戰"。
英偉達提供了一些基準測試的數據,最大的提升是以DLRM Recommender為代表的AI深度學習,提升了3倍,其次是大數據分析,提升了2倍。這些方面提升效果是明顯的,對于需要進一步挖掘性能的客戶來說,這是一次可喜的升級。
升級后的80GB HBM2e版已經出現在NVIDIA新款DGX Station A100里面,它基本上是一個小型數據中心了,裝載了4塊A100 80GB 版加速卡可以提供2.5 PetaFLOPS的性能。
DGX Station A100將在本季度上市。
