科技應用 nvidia dell GB10 Dell 推出搭載 NVIDIA GB10 Superchip 超小型 AI 超級電腦 Dell 發表一款搭載 NVIDIA GB10 Superchip 的超小型人工智慧超級電腦,主要應用於邊緣運算、人工智慧推論等場景,為企業提供更高效、更靈活的 AI 解決方案。 Dell宣布推出全新搭載NVIDIA RTX PRO Blackwell繪圖卡,搭配Intel或AMD新款針對工作站打造的處理器,並且標榜能對應處理龐大資料集、密集工作量的Dell Pro Max系列桌機、筆電,同時也推出搭載NVIDIA GB10 Grace Blackwell Superchip的Dell Pro Max with GB10。 在NVIDIA確定搭載GB10 Superchip的超小型人工智慧超級 Mash Yang 1 個月前
產業消息 nvidia hpc 超級電腦 Grace Hopper GH200 全球九套新超級電腦採用NVIDIA GH200 SuperChip、提供綜合200 exaflops AI算力,並兼具出色節能表現 NVIDIA於SC24大會宣布,全球有9套新上線的超級電腦使用NVIDIA Grace Hopper Superchip(GH200 Superchip),並分布於法國、波蘭、瑞士、德國、美國、日本等,以較x86更為出色的能耗表現提供更強大的AI運算力,此9套系統加總的AI算力可達200 exaflops,將進一步為全球帶來更強效的AI運算。另外此外,英國布里斯托大學的Isambard-AI、Isambard 3,以及美國洛斯阿拉莫斯國家實驗室和美國德州先進運算中心的系統也加入了使用Grace CPU超級晶片和Grace Hopper平台的Arm架構超級電腦行列。 9套採用GH200 Supe Chevelle.fu 1 年前
產業消息 NVIDIA GTC nvidia DGX Hopper NVIDIA H100 Grace CPU Blackwell NVIDIA B200 DGX GB200 GB200 Superchip NVIDIA B100 GTC 2024:Blackwell GPU家族成員除了GB200 Superchip、B200 GPU外,還有等同B200 GPU壓低能耗的B100 GPU 在早期的產品藍圖,當時NVIDIA指稱2024年將公布代號B100的Hopper後繼架構,不過在GTC 2024,NVIDIA則是聚焦在Blackwell架構的GB200 Superchip與B200 GPU,但在Blackwell產品線規劃,B100 GPU確實存在,而且與B200 GPU的關鍵差異僅在於能耗設定以及因為能耗影響的效能。 ▲B200晶片特寫,可看到上下的HBM3E記憶體以及兩個互連的Blackwell晶粒 根據NVIDIA提供的白皮書,Blackwell GPU是透過封裝技術將兩個晶片與8Gbps HBM3E記憶體透過高速通道連接構成一個晶片,總共有2,080億個電晶體,單一 Chevelle.fu 1 年前
產業消息 NVIDIA GTC nvidia 伺服器 grace 水冷 nvlink nvswitch Blackwell GB200 Grace Blackwell DGX GB200 GB200 NVL72 GB200 Superchip GTC 2024:NVIDIA DGX GB200液冷伺服器動眼看,由18台GB200 Superchip的機架伺服器、9台NVSwitch構成的大型AI Factory單元 NVIDIA在GTC 2024公布基於NVIDIA GB200 NVL72的DGX GB200系統,在會場也展示實際的設計;不同於過往x86形式的DGX系統是由2個x86晶片以PCIe連接到具備8個NVIDIA GPU的NVLink載板的風冷式機架伺服器,DGX GB200則是由18台載有兩套NVIDIA GB200 Superchip的1U伺服器,搭配9台NVSwitch的NVLink交換器等構成,同時也僅有液冷散熱單一設計。 ▲左側為NVSwitch交換器,中間與右方分別為移除水冷頭的以及覆蓋有液冷頭的GB200 Superchip伺服器 ▲後方白色的纜線為NVSwitch的銅纜 ▲液冷道 Chevelle.fu 1 年前
專家觀點 NVIDIA GTC ARM nvidia nvlink Mellanox Arm Neoverse 加速運算 NVIDIA Grace NVLink-C2C Grace Hopper SuperChip Blackwell GH200 GB200 Grace Blackwell GB200 NVL72 觀點:NVIDIA Blackwell架構著重結合Grace CPU的GB200 Superchip,意味著NVIDIA逐步減少對x86依賴 NVIDIA在GTC 2024的重點即是宣布全新AI超算GPU架構Blackwell,值得關注的是過往NVIDIA將重點放在整合Grace CPU的「Grace Blackwell」NVIDIA GB200 Superchip,並將GB200構成的GB200 NVL72機架式系統視為新DGX SuperPOD的關鍵架構,對於純CPU的NVIDIA B200相對輕描淡寫。 ▲回顧NVIDIA的GPU加速運算之路,從僅有2家夥伴至今已成HPC與AI產業龍頭 NVIDIA如此大張旗鼓宣傳GB200 Superchip,主要的理由恐怕還是向產業擺明NVIDIA在超算領域正設法減少對AMD與Intel的 Chevelle.fu 1 年前
產業消息 NVIDIA GTC nvidia DGX SuperPOD Blackwell NVIDIA GB200 NVIDIA B200 DGX GB200 DGX B200 GB200 NVL72 GTC 2024:基於Blackwell GPU的DGX SuperPOD為兆級參數規模生成式AI而生,結合網路、軟體與儲存可擴展到數萬個GB200 Superchip NVIDIA於GTC 2024公布Blackwell架構,也同步宣布基於Blackwell GPU的新一代NVIDIA DGX SuperPOD;不同過往DGX SuperPod採用x86架構與風冷散熱,基於Blackwell架構新DGX SuperPod採用基於Arm Neoverse的Grace CPU與Blackwell GPU構成的NVIDIA GB200 Superchip,並採更高效的液冷散熱架構,透過NVLink可連接至最多576個Blackwell GPU,借助NVIDIA網路、NVIDIA全端AI軟體與儲存最高可擴展數萬個GB200 Superchip,可因應兆級規模的AI超 Chevelle.fu 1 年前
產業消息 NVIDIA GTC nvidia gpu grace 台積電 大型語言模型 生成式AI LLM Blackwell GB200 Grace Blackwell NVIDIA GB200 NVIDIA B200 FP4 FP6 GTC 2024:NVIDIA公布雙晶粒連接的Blackwell架構NVIDIA B200 Tensor Core GPU,GB200 Superchip由1CPU與雙GPU構成 NVIDIA在GTC 2024的重頭戲即是宣布以首位美國科學院黑人學者與研究賽局理論與統計學數學家David Harold Blackwell為名的Blackwell GPU架構,以及基於Blackwell架構的NVIDIA B200 Tensor Core GPU;Blackwell採用六項為加速運算而生的革命性技術,首度採用雙晶粒互連構成一個2,080億電晶體的GPU,同時全新的GB200 Superchip(Grace Blackwell超級晶片)更透過NVLink-C2C將2個NVIDIA B200 Tensor Core GPU與1個Grace CPU連接。 基於Blackwell架 Chevelle.fu 1 年前
產業消息 nvidia gpu 澳洲 quantum 量子運算 NVIDIA Hopper Grace CPU Grace Hopper SuperChip NVIDIA H100 GPU 澳洲Pawey超算中心將納入NVIDIA Grace Hoper Superchip晶片與CUDA Quantum執行量子運算模擬 NVIDIA宣布,澳洲Pawsey超級運算研究中心將NVIDIA Grace Hoper Superchip(GH200)晶片與CUDA Quantum平台納入位於珀斯的國家超算與量子運算創新中心,Pawsey正在導入8個基於NVIDIA MGX模組化架構的NVIDIA GH200節點,藉此提供澳洲科學研究人員進行量子運算模擬,推動澳洲在量子運算領域的進展。 ▲NVIDIA Cuda Quantum使現行加速架構能模擬量子運算,同時搭配具高速CPU與GPU互連的NVIDIA Hopper Tensor GPU進一步帶來突破性的成果 量子運算被視為能突破當前傳統運算架構難以解決的複雜問題的下一代 Chevelle.fu 1 年前
產業消息 nvidia amazon AI aws Grace Hopper SuperChip 大型語言模型 生成式AI LLM GH200 H200 亞馬遜AWS率先導入NVIDIA Grace Hopper Superchip與Ultra Cluster可擴展雲端超級電腦,為生成式AI提供強大的雲運算基礎架構、軟體與服務 Amazon Web Service/AWS於自家年度活動AWS re:Invent大會宣布攜手NVIDIA導入多項NVIDIA的創新硬體、技術與服務,率先成為首家導入NVIDIA Grace Hopper Superchip與Ultra Cluster可擴展雲端超級電腦的雲服務商,為機器學習與當前火熱的生成式AI提供自硬體、軟體到軟體的全方位解決方案。 AWS宣布將是第一家提供NVIDIA Grace Hopper Superchip的雲端服務商,以達32個節點構成單一個NVIDIA GH200 NVL32執行個體,將高達32個Grace Hopper Superchip成為一個具備20TB Chevelle.fu 1 年前
產業消息 nvidia AI 資料中心 Grace Hopper SuperChip 大型語言模型 生成式AI GH200 HBM3e SIGGRAPH 2023 : NVIDIA 公布 141GB HBM3e 版 NVIDIA GH200 Grace Hopper Superchip ,並宣布 NVLink dual-GH200 雙晶片伺服器系統 NVIDIA 已經在 Computex 2023 期間公布首款混合 CPU 與 GPU 的 NVIDIA GH200 Grace Hopper Superchip 開始量產,並預計在 2023 年末推出;或許是受到 AMD 也將推出第一款資料中心級 APU 產品 Instinct MI300A 的影響,在 SIGGRAPH 2023 主題演講, NVIDIA 再宣布將推出採用 HBM3e 記憶體版本的 NVIDIA GH200 Grace Hopper Superchip ,不僅將 GPU 記憶體頻寬提高到 5TB/s ,同時相較先前公布的 GH200 配有 96GB 的 HBM3 記憶體, Chevelle.fu 1 年前