GTC 2025:華碩展出搭載NVIDIA GB300 NVL72的AUS AI POD,預告也將推出基於NVIDIA GB10的'ASUS Ascent GX10小型AI超級電腦
華碩在GTC 2025展出基於NVIDIA GB300 NVL72的ASUS AI POD,以華碩自NVIDIA GB200 NVL72架構資料中心的建置經驗為基礎,採用機架規模設計,具備36個Grace CPU與72個Blackwell Ultra GPU,每機架記憶體達40TB,同時整合NVIDIA Quantum-X800 InfiniBand和Spectrum- X Ethernet網路平台,搭載易於維護的SXM7與SOCAMM模組、採用100%液冷設計,可支援兆級參數的LLM推論與訓練;另外華碩也宣布將攜手NVIDIA的DGX Spark計畫,推出搭載GB10晶片的ASUS Asce
4 個月前
GTC 2025:NVIDIA宣布啟動加速量子運算研究中心計畫,坐落波士頓並與量子運算產學合作
NVIDIA在GTC 2025同步舉辦第一屆量子日活動,在GTC 2025的主題演講,NVIDIA宣布將在波士頓設立加速量子運算研究中心(NVAQC),同時攜手領先的硬體、軟體製造商與研究機構,將共同推動量子運算架構與演算法的發展,NVAQC將協助解決量子運算產業的難題,自處理量子位元雜訊至實驗性量子處理器轉化為可實際實用的裝置。 NVIDIA加速量子運算研究中心NVAQC預計在2025年內開始營運 ▲NVAQC將以GB200 NVL72建構機架規模系統,預計2025年內開始營運 NVAQC將攜手包括Quantinuum、Quantum Machines、QuEra Computing等領先量
4 個月前
NVIDIA將GB 200 NVL72、NVIDIA Spectrum-X貢獻予開放式硬體生態系,加速基於AI的產業革命
NVIDIA為了促使開放、高效且具擴充的資料中心,持續向開放運算計畫(OCP)貢獻高效能運算硬體架構,其中也包括引領目前AI與高效能運算的NVDIIA HGX H100;隨著Blackwell架構供部,NVIDIA於2024年10月舉辦的OCP高峰會重磅宣布將Blackwell加速運算平台設計的基礎要素貢獻給OCP,同時擴大NVIDIA Spectrum-X支援OCP標準的程度。 NVIDIA將透過OCP社群分享NVIDIA GB200 NVL系統機電設計的關鍵組成,包括機架架構、運算與交換器托盤機構、液冷與熱環境規格,還有由NVIDIA NVLink纜線構成的體機容量、藉此支援更高運算密度與
9 個月前
鴻海集團宣布將於高雄建構機於NVIDIA GB200 NVL72機架的AI超級電腦,預計超過90exaflips為台灣最強AI HPC
與NVIDIA關係密切的鴻海集團於2024年10月8日的鴻海科技日宣布將於高雄建構台灣最高性能的AI超級電腦,此專案為鴻海高雄超級運算中心,基於NVIDIA的Blackwell架構,預計基於NVIDIA GB200 NVL 72為基礎,由共64個機架、達4,608個GPU構成,預估AI算力超過90exaflops;鴻海高雄超級運算中心已經開始動工,第一階段預計於2025年中期運作、目標於2026年完成。 鴻海高雄超級運算中心為NVIDIA所支援的全球先進超級運算設施網路的一員,將結合NVIDIA Omniverse與Isaac機器人平台,結合AI與數位孿生協助改造製程,並活用於AI研究、醫療保
9 個月前
COMPUTEX 2024:NVIDIA黃仁勳於主題演講力挺台灣產業鏈,並深入淺出的方式介紹NVIDIA如何透過GPU與大量軟體資源驅動AI革命
NVIDIA獨立於COMPUTEX 2024大會主題演講前的週日晚間,由執行長黃仁勳於台大體育館親自主持主題演講;這場主題演講可視為黃仁勳回報給台灣產業供應鏈、政府機關與研究單位長期合作的深情告白,無論是開場與台灣科技產業大老走訪夜市的前導影片,台灣科技公司如何應用其技術,還有中央氣象局的氣象預報專案計畫,再再強調NVIDIA與台灣密不可分,也多次感謝台灣產業鏈與NVIDIA攜手共進,同時活動中許多的短片的中文解說,則是透過黃仁勳的聲音訓練的合成語音,黃仁勳還打趣的說她的中文說得不夠好怕詞不達意,只好自己撰稿讓AI代勞。 ▲前導短片是剪輯黃仁勳在COMPUTEX前與台灣科技產業大老四處走訪夜市
1 年前
NVIDIA執行長黃仁勳將在6月2日於台大體育場舉辦COMPUTEX主題演講,6月5日另舉辦NVIDIA AI Summit Taiwan
先前在NVIDIA官方的行程已經確定NVIDIA執行長黃仁勳將於COMPUTEX 2024大會主題演講的前一日、也就是2024年6月2日晚間7點獨立舉辦COMPUTEX主題演講;NVIDIA官方正式公告黃仁勳的主題演講將選在台大綜合體育場舉辦,似乎是呼應NVIDIA GTC 2024在SAP Center的演唱會等級格局,預期將以NVIDIA GTC 2024公布的產品、技術為主軸進行延伸,包括Blackwell架構、NVIDIA GB200 Superchip、NVIDIA B200 GPU、NVIDIA GB200 NVL72系統等都會是重點。 目前NVIDIA COMPUTEX 2024
1 年前
GTC 2024:NVIDIA DGX GB200液冷伺服器動眼看,由18台GB200 Superchip的機架伺服器、9台NVSwitch構成的大型AI Factory單元
NVIDIA在GTC 2024公布基於NVIDIA GB200 NVL72的DGX GB200系統,在會場也展示實際的設計;不同於過往x86形式的DGX系統是由2個x86晶片以PCIe連接到具備8個NVIDIA GPU的NVLink載板的風冷式機架伺服器,DGX GB200則是由18台載有兩套NVIDIA GB200 Superchip的1U伺服器,搭配9台NVSwitch的NVLink交換器等構成,同時也僅有液冷散熱單一設計。 ▲左側為NVSwitch交換器,中間與右方分別為移除水冷頭的以及覆蓋有液冷頭的GB200 Superchip伺服器 ▲後方白色的纜線為NVSwitch的銅纜 ▲液冷道
1 年前
觀點:NVIDIA Blackwell架構著重結合Grace CPU的GB200 Superchip,意味著NVIDIA逐步減少對x86依賴
NVIDIA在GTC 2024的重點即是宣布全新AI超算GPU架構Blackwell,值得關注的是過往NVIDIA將重點放在整合Grace CPU的「Grace Blackwell」NVIDIA GB200 Superchip,並將GB200構成的GB200 NVL72機架式系統視為新DGX SuperPOD的關鍵架構,對於純CPU的NVIDIA B200相對輕描淡寫。 ▲回顧NVIDIA的GPU加速運算之路,從僅有2家夥伴至今已成HPC與AI產業龍頭 NVIDIA如此大張旗鼓宣傳GB200 Superchip,主要的理由恐怕還是向產業擺明NVIDIA在超算領域正設法減少對AMD與Intel的
1 年前
GTC 2024:基於Blackwell GPU的DGX SuperPOD為兆級參數規模生成式AI而生,結合網路、軟體與儲存可擴展到數萬個GB200 Superchip
NVIDIA於GTC 2024公布Blackwell架構,也同步宣布基於Blackwell GPU的新一代NVIDIA DGX SuperPOD;不同過往DGX SuperPod採用x86架構與風冷散熱,基於Blackwell架構新DGX SuperPod採用基於Arm Neoverse的Grace CPU與Blackwell GPU構成的NVIDIA GB200 Superchip,並採更高效的液冷散熱架構,透過NVLink可連接至最多576個Blackwell GPU,借助NVIDIA網路、NVIDIA全端AI軟體與儲存最高可擴展數萬個GB200 Superchip,可因應兆級規模的AI超
1 年前

相關文章