NVIDIA加速運算成全球新一代超級電腦主流設計,超過七成的TOP500系統使用NVIDIA GPU
NVIDIA的加速運算技術可說是驅動近年超級電腦產業性能大幅提升的重要原動力,也由於出色的實績使得許多新建超級電腦系統紛紛採用NVIDIA的加速技術提升運算性能;於2024年11月公布的最新的TOP500超級電腦榜單上,達384套系統採用NVIDIA的技術,同時新入榜的53套系統中有46套為加速系統、當中達85%為NVIDIA Hopper GPU所驅動;更值得注意的是象徵能源效率的Green500榜單的前10名,有8名為NVIDIA GPU所加速的系統。 使NVIDIA加速系統廣受歡迎的關鍵不僅止於硬體的FLOPS運算性能數據,在基於開放的原則下,不斷透過軟體提升效率與增添新的可能性是NVI
8 個月前
NVIDIA H100最新MLPerf訓練測試基準較2023年以3.2倍GPU規模實現3倍以上的性能
NVIDIA持續引領AI產業硬體的關鍵在於不僅止於GPU硬體技術、還有與持續不斷精進的軟體與網路技術結合;NVIDIA公布最新MLPerf Training v4.0基準測試表現,在GPT-3 175B大型語言模型訓練的表現,以較2023年多出3.2倍的GPU數量實現3倍以上的性能增長,展現強大的軟體調校能使GPU數量與性能呈現幾乎1:1的擴充效率,也顯示在相同的硬體架構之下持續擴充規模仍可在軟體不斷增強獲得出色的成效。NVIDIA預期在NVIDIA Blackwell推出後,MLPerf測試基準成績將有更驚人的成果,並邁向訓練與推論的兆參數生成式AI模型世代。 NVIDIA在2023年使用3
1 年前
NVIDIA執行長黃仁勳親手將第一台NVIDIA DGX H200伺服器交給OpenAI
OpenAI在還未一戰成名前,NVIDIA執行長黃仁勳就親自將當時最新的伺服器交給當時仍處在新創階段的OpenAI;OpenAI總裁Greg Brockman在個人X公布一張照片,NVIDIA執行長再次親手將第一台NVIDIA DGX H200伺服器交付給Open AI。 First @NVIDIA DGX H200 in the world, hand-delivered to OpenAI and dedicated by Jensen "to advance AI, computing, and humanity": pic.twitter.com/rEJu7OTNGT — Greg B
1 年前
Intel公布主打性能與性價比皆優於NVIDIA H100的Gaudi AI加速器,主打提供業界多元且開放的選擇
NVIDIA以長期投入的獨占Cuda加速技術搭配開源軟體環境最終在對的時間開花結果,成為當前引領AI產業的龍頭,不過包括AMD、Intel與諸多新創競爭對手勢必會希望打破僵局,尤其對過往長期獨霸運算產業的Intel而言,勢必希望能夠重振雄風奪回產業領導地位;Intel在Vision 2024大會公布第三世代的Intel Gaudi AI加速器,劍指NVIDIA Hopper架構(對,比較對象不是下一代的Blackwell),強調在性能全面領先NVIDIA H100以外,更提供產業多元且開放的選擇。 Gaudi 3預計在2024年第二季向OEM交付通用基板與開放加速器模型(OAM)的業界標準配置
1 年前
NVIDIA Hopper架構TensorRT-LLM使生成式AI推論提升近3倍,H200藉HBM3e記憶體散熱打破MLPerf推論紀錄
雖然NVIDIA甫在GTC 2024公布眾所矚目的全新Blackwell架構,但畢竟Blackwell仍要待到2024年下半年才會開始出貨,故目前最新的NVIDIA AI GPU加速產品為採用美光HBM3e記憶體的NVIDIA H200 Tensor Core GPU;NVIDIA公布全新的MLPerf測試成績,基於Hopper架構的H100借助TensorRT-LLM軟體突破MLPerf的生成式AI測試項突破原本的性能上限,於GPT-J LLM推論性能較6個月前提升近3倍,而陸續出貨的H200 GPU則透過容量、頻寬提升的HBM3e記憶體與更彈性的散熱,一舉刷新多項MLPerf的紀錄。 ▲包
1 年前
澳洲Pawey超算中心將納入NVIDIA Grace Hoper Superchip晶片與CUDA Quantum執行量子運算模擬
NVIDIA宣布,澳洲Pawsey超級運算研究中心將NVIDIA Grace Hoper Superchip(GH200)晶片與CUDA Quantum平台納入位於珀斯的國家超算與量子運算創新中心,Pawsey正在導入8個基於NVIDIA MGX模組化架構的NVIDIA GH200節點,藉此提供澳洲科學研究人員進行量子運算模擬,推動澳洲在量子運算領域的進展。 ▲NVIDIA Cuda Quantum使現行加速架構能模擬量子運算,同時搭配具高速CPU與GPU互連的NVIDIA Hopper Tensor GPU進一步帶來突破性的成果 量子運算被視為能突破當前傳統運算架構難以解決的複雜問題的下一代
1 年前
NVIDIA公佈NVIDIA H200 Tensor Core GPU,搭載頻寬快2.4倍、容量翻倍的HBM3e記憶體
NVIDIA在SC24大會宣布NVIDIA H100的強化版本NVIDIA H200 Tensor Core GPU,核心架構仍基於Hopper,主要在於提升記憶體的頻寬與容量,採用具備4.8TB/s頻寬、141GB的HBM3e記憶體,藉此提升整體算力;NVIDIA H200設計與NVIDIA H100具相容性,系統業者可沿用NVIDIA H100系統設計置換NVIDIA H200。 伺服器製造商與雲端服務業者預計於2024年第二季推出NVIDIA H200的系統與服務 ▲H200的晶片仍為H100,主要差異在於採用更大容量、更高頻寬的HBM3e記憶體 NVIDIA H200是首款配置HBM3
1 年前
超過 60 款以上採用 Intel 第四代 Xeon Scalable 處理器與 NVIDIA Hopper GPU 的加速系統開始出貨,執行效率較傳統資料中心高出 25 倍
隨著代號 Sapphire Rapids 的 Intel 第四代 Xeon Scalable 處理器正式公布, NVIDIA 也同步宣布將有包括 NVIDIA DGX H100 與合作夥伴設計共超過 60 款以上加速系統問世,強調相較傳統資料中心高出 25 倍執行效率,能夠大幅節省能源成本。 ▲ NVIDIA DGX H100 不僅純性能提升,更具備更出色的能源效率 NVIDIA H100 不僅具備創新的硬體架構與達 900GB/s 的 NVLink ,也率先支援 PCIe 5.0 通道,提供更高速的 GPU 與 CPU 的溝通管道,相較前一代架構的加速系統,採用 NVIDIA H100 的系
2 年前
NVIDIA Hopper H100 GPU 樹立 AI 訓練新指標, NVIDIA A100 借助軟體更新效能持續增長
NVIDIA 在 2022 年 9 月首度公開新一代代號 Hopper 的 NVIDIA H100 Tensor GPU 在 MLPerf 推論基準測試的效能,刷新當時的 MLPerf 效能紀錄;如今 NVDIA 再次公布 NVIDIA H100 在產業組織的人工智慧訓練最新測試成績,創下處理企業 AI 負載的新紀錄,大幅領先競爭對手產品,顯見 NVIDIA H100 是當前對建構與部署最先進 AI 並追求極致效能的用戶的最佳選擇;然而縱使是問世兩年的 NVDIA A100 ,借助持續的軟體升級, NVIDIA A100 Tensor GPU 仍打破去年所公布的成績。 ▲即便 NVIDIA H
2 年前
NVIDIA 2022 秋季 GTC : NVIDIA H100 GPU 已進入量產, NVIDIA H100 認證系統十月起上市、 DGX H100 將於 2023 年第一季上市
NVIDIA 執行長黃仁勳在 2022 年 NVIDIA 春季 GTC 大會公布代號 Hopper 的新一代 AI 超算加速 GPU NVIDIA H100 ,在秋季 GTC 大會 NVIDIA 宣布 NVIDIA H100 已經進入量產,由系統合作夥伴開發的 NVIDIA H100 認證系統預計自 10 月開始出貨,而合作夥伴已可透過 NVIDIA LaunchPad 計畫進行試用評估,至於 NVIDIA 的 DGX H100 系統將於 2023 年第一季出貨。 值得注意的是,由於 DGX H100 系統搭配的是代號 Sapphire Rapids 的 Intel Xeon 處理器,似乎也暗
2 年前

相關文章