【ITBEAR科技資訊】3月22日消息,英偉達在GTC Spring 2023主題演講中推出了全新的雙GPU產(chǎn)品H100 NVL,該產(chǎn)品可滿足不斷增長的人工智能市場需求。據(jù)悉,H100 NVL在頂部配備了3個NVlink連接器,使用兩個相鄰的PCIe顯卡插槽。H100 NVL最高可提供188GB HBM3顯存,單卡顯存容量為94GB。這在運行大型語言模型(LLM)時非常重要,因為常規(guī)顯卡的顯存無法駕馭龐大的數(shù)據(jù)流。H100 NVL的顯存容量更高,能夠滿足這種需求。
H100 NVL的功耗略高于H100 PCIe,每個GPU的功耗為350-400瓦(可配置),比H100 PCIe增加了50W。然而,總性能實際上是H100 SXM的兩倍。FP64為134 teraflops,TF32為1979 teraflops,F(xiàn)P8為7916 teraflops,INT8為7916 teraops。此外,內(nèi)存帶寬也比H100 PCIe高得多,每個GPU為3.9TB/s,總和為7.8TB/s,而H100 PCIe僅為2TB/s,H100 SXM為3.35TB/s。
據(jù)ITBEAR科技資訊了解,H100 NVL為大型語言模型等需要大量顯存的應用提供了更好的解決方案,同時提供了高性能和高內(nèi)存帶寬。這將使研究人員更容易處理海量數(shù)據(jù),訓練出更準確的模型,從而加速人工智能的發(fā)展。英偉達表示,H100 NVL已經(jīng)開始出貨,但并未透露其價格。