北京時間 9 月 9 日,MLCommons 社區發布了最新的 MLPerf 2.1 基準測試結果,新一輪基準測試擁有近 5300 個性能結果和 2400 個功耗測量結果,分別比上一輪提升了 1.37 倍和 1.09 倍,MLPerf 的適用范圍進一步擴大。
阿里巴巴、華碩、Azure、壁仞科技、戴爾、富士通、技嘉、H3C、HPE、浪潮、英特爾、Krai、聯想、Moffett、Nettrix、Neural Magic、英偉達、OctoML、高通、SAPEON 和 Supermicro 均是本輪測試的貢獻者。
其中,英偉達表現依然亮眼,首次攜 H100 參加 MLPerf 測試,并在所有工作負載中刷新世界紀錄。
H100 打破世界記錄,較 A100 性能提升 4.5 倍
英偉達于今年 3 月份發布基于新架構 NVIDIA Hopper 的 H100 GPU,與兩年前推出的 NVIDIA Ampere 架構相比,實現了數量級的性能飛躍。黃仁勛曾在 GTC 2022 上表示,20 個 H100 GPU 便可以承托相當于全球互聯網的流量,能夠幫助客戶推出先進的推薦系統及實時運行數據推理的大型語言模型。
令一眾 AI 從業者期待的 H100 原本定于 2022 年第三季度正式發貨,目前處于接受預定狀態,用戶的真實使用情況和 H100 的實際性能尚不可知,因此可以通過最新一輪的 MLPerf 測試得分提前感受 H100 的性能。

在本輪測試中,對比 Intel Sapphire Rapids、Qualcomm Cloud AI 100、Biren BR104、SAPEON X220-enterprise,NVIDIA H100 不僅提交了數據中心所有六個神經網絡模型的測試成績,且在單個服務器和離線場景中均展現出吞吐量和速度方面的領先優勢。
以 NVIDIA A100 相比,H100 在 MLPerf 模型規模最大且對性能要求最高的模型之一 —— 用于自然語言處理的 BERT 模型中表現出 4.5 倍的性能提升,在其他五個模型中也都有 1 至 3 倍的性能提升。H100 之所以能夠在 BERT 模型上表現初出色,主要歸功于其 Transformer Engine。
其他同樣提交了成績的產品中,只有 Biren BR104 在離線場景中的 ResNet50 和 BERT-Large 模型下,相比 NVIDIA A100 有一倍多的性能提升,其他提交成績的產品均未在性能上超越 A100。
而在數據中心和邊緣計算類別的場景中,A100 GPU 的測試成績依然不俗,得益于 NVIDIA AI 軟件的不斷改進,與 2020 年 7 月首次亮相 MLPerf 相比,A100 GPU 實現了 6 倍的性能提升。
追求 AI 通用性,測試成績覆蓋所有 AI 模型
由于用戶在實際應用中通常需要采用許多不同類型的神經網絡協同工作,例如一個 AI 應用可能需要理解用戶的語音請求、對圖像進行分類、提出建議,然后以語音回應,每個步驟都需要用到不同的 AI 模型。

正因如此,MLPerf 基準測試涵蓋了包括計算機視覺、自然語言處理、推薦系統、語音識別等流行的 AI 工作負載和場景,以便于確保用戶獲得可靠且部署靈活的性能。這也意味著,提交的測試成績覆蓋的模型越多,成績越好,其 AI 能力更加具備通用性。
在此輪測試中,英偉達 AI 依然是唯一能夠在數據中心和邊緣計算中運行所有 MLPerf 推理工作負載和場景的平臺。
在數據中心方面,A100 和 H100 都提交了六個模型測試成績。
在邊緣計算方面,NVIDIA Orin 運行了所有 MLPerf 基準測試,且是所有低功耗系統級芯片中贏得測試最多的芯片。

Orin 是將 NVIDIA Ampere 架構 GPU 和 Arm CPU 內核集成到一塊芯片中,主要用于機器人、自主機器、醫療機械和其他形式的邊緣嵌入式計算。
目前,Orin 已經被用在 NVIDIA Jetson AGX Orin 開發者套件以及機器人和自主系統生成模考,并支持完整的 NVIDIA AI 軟件堆棧,包括自動駕駛汽車平臺、醫療設備平臺和機器人平臺。
與 4 月在 MLPerf 上的首次亮相相比,Orin 能效提高了 50%,其運行速度和平均能效分別比上一代 Jetson AGX Xavier 模塊高出 5 倍和 2 倍。
追求通用型的 NVIDIA AI 正在被業界廣泛的機器學習生態系統支持。在這一輪基準測試中,有超過 70 項提交結果在 NVIDIA 平臺上運行。例如,Microsoft Azure 提交了在其云服務上運行 NVIDIA AI 的結果。