NVIDIA A100 GPU 與 DGX SuperPOD 系統成為全球最快 AI 訓練市售產品

2020.07.30 10:06PM
93

NVIDIA以Ampere顯示架構及台積電7nm製程打造的A100 Tensor Core GPU,在MLPerf Inference 0.7版本中的8項基準測試均呈現最快加速效能,藉由HDR InfiniBand串接大量A100 Tensor Core GPU形成的DGX SuperPOD系統,更是樹立8項全新效能里程碑。

首圖

在MLPerf Inference測試基準刷新總計16項人工智慧加速效能紀錄

2018年與多家業者共同制定測試基準MLPerf Inference,並且在今年7月提出0.7版本後,NVIDIA宣布旗下A100 Tensor Core GPU與DGX SuperPOD系統在新版測試基準下,成為全球最快人工智慧訓練市售產品,並且刷新16項人工智慧效能記錄。

依照NVIDIA說明,以Ampere顯示架構及台積電7nm製程打造的A100 Tensor Core GPU,在MLPerf Inference 0.7版本中的8項基準測試均呈現最快加速效能。

而藉由HDR InfiniBand串接大量A100 Tensor Core GPU形成的DGX SuperPOD系統,更是樹立8項全新效能里程碑。

在此之前,NVIDIA已經以旗下Volta架構GPU產品於2018年12月提出的MLPerf Inference 0.5版本創下6項加速效能記錄,而在2019年7月提出的0.6版本中則創下8項記錄。

在新版測試基準中,包含多數人工智慧應用項目的推薦機制測試,以及藉由BERT模型運作的對話式人工智慧,另外也包含採Mini-go及19×19全尺寸Go機板測試項目,藉此涵蓋遊戲應用到各個複雜模型訓練測試。

同時,NVIDIA更以旗下Ampere及Volta架構市售產品進行所有測試,並且刷新市售產品類別效能記錄,相比其他競爭對手是以不會在近期內上市產品接受測試,NVIDIA所有接受測試產品都是已經可在市面採購產品,意味企業能直接江這些產品應用在旗下服務佈署需求。

除了藉由硬體架構精進提昇加速效能,NVIDIA也透過軟體最佳化讓相同GPU加速效能提昇,例如以Tesla V100 GPU構成的DGX-1超級電腦,在目前測試基準版本中的效能表現,相比0.5版本約提昇4倍,而整體加速效能表現更比初期提昇2倍效果。

此次遞交測試成果的9家業者裡,便有7家採用NVIDIA GPU產品,其中包含阿里巴巴、Google、騰訊,以及伺服器製造商如Dell、富士通與浪潮集團打造伺服器。

藉由A100 Tensor Core GPU與DGX SuperPOD系統,NVIDIA預期將能加快人工智慧技術成長,同時也能帶動巨量數據應用,藉此讓各領域技術藉由更大運算規模擴展

Tagged A100 Tensor Core GPU, AI, Ampere, DGX SuperPOD, MLPerf Inference, Nvidia, 人工智慧

0 則回應