GTC 2024:NVIDIA DGX GB200液冷伺服器動眼看,由18台GB200 Superchip的機架伺服器、9台NVSwitch構成的大型AI Factory單元
NVIDIA在GTC 2024公布基於NVIDIA GB200 NVL72的DGX GB200系統,在會場也展示實際的設計;不同於過往x86形式的DGX系統是由2個x86晶片以PCIe連接到具備8個NVIDIA GPU的NVLink載板的風冷式機架伺服器,DGX GB200則是由18台載有兩套NVIDIA GB200 Superchip的1U伺服器,搭配9台NVSwitch的NVLink交換器等構成,同時也僅有液冷散熱單一設計。 ▲左側為NVSwitch交換器,中間與右方分別為移除水冷頭的以及覆蓋有液冷頭的GB200 Superchip伺服器 ▲後方白色的纜線為NVSwitch的銅纜 ▲液冷道
1 年前
觀點:NVIDIA Blackwell架構著重結合Grace CPU的GB200 Superchip,意味著NVIDIA逐步減少對x86依賴
NVIDIA在GTC 2024的重點即是宣布全新AI超算GPU架構Blackwell,值得關注的是過往NVIDIA將重點放在整合Grace CPU的「Grace Blackwell」NVIDIA GB200 Superchip,並將GB200構成的GB200 NVL72機架式系統視為新DGX SuperPOD的關鍵架構,對於純CPU的NVIDIA B200相對輕描淡寫。 ▲回顧NVIDIA的GPU加速運算之路,從僅有2家夥伴至今已成HPC與AI產業龍頭 NVIDIA如此大張旗鼓宣傳GB200 Superchip,主要的理由恐怕還是向產業擺明NVIDIA在超算領域正設法減少對AMD與Intel的
1 年前
COMPUTEX 2023 : NVIDIA 宣布 Grace Hopper Superchip 已開始量產,並公布算力達 1-Exaflops 、由 256 個 Grace Hopper SuperChip 構成的 DGX GH200
NVIDIA 執行長黃仁勳在 COMPUTEX 2023 主題演講宣布 NVIDIA GH200 Grace Hopper SuperChip 已正式量產,搭載 GH200 的系統預計於 2023 年稍晚上市;同時 NVIDIA 還一併公布由高達 256 個 GH200 Grace Hopper 構成的 NVIDIA DGX 200 超級電腦,具備超過 1 exaflops 效能與 144TB 記憶體,憑藉驚人的算力與巨量記憶體可為生成式 AI 、推薦系統與資料分析開發巨型的下一代模型。 Google Cloud 、 Meta 與微軟預計是首波導入 DGX GH200 作為探索生成式 AI 工
2 年前
COMPUTEX 2023 : NVIDIA 公布 NVIDIA MGX 模組化伺服器架構,能構成 100 種組合呼應 AI、 HPC 、 Omniverse 等不同運算需求
NVIDIA 在伺服器產業已從僅提供 GPU 加速產品,至今已提供自 CPU 、 GPU 、 DPU 與網路等完整的組合, NVIDIA 藉 COMPUTEX 2023 公布對伺服器產業相當重要的消息,即是 NVIDIA MGX 模組化伺服器架構,提供系統製造商模組化的參考架構,能夠因應運算需求的不同,快速運用符合經濟效益的方式建構 100 種伺服器組合,並廣泛用於 AI 、高效能運算與 Omniverse 。雲達科技與美超微 Supermicro 為首波導入的合作夥伴。 ▲多家伺服器品牌皆宣布採用 NVIDIA MGX 永擎電子、華碩、技嘉、和碩聯合科技、雲達科技及美超微都宣布倒入 NVID
2 年前
GTC 2023 : NVIDIA 公布著重低能耗的 NVIDIA L4 Tensor Core GPU 以及針對大型語言模型佈署的 NVIDIA H100 NVL 加速模組,迎接 AI 的「 iPhone 時代」
NVIDIA 宣布擴大採用新世代架構的推論產品新陣容,在 GTC 2023 公布針對基礎設施與低功耗的 NVIDIA L4 GPU ,以及針對大型語言模型佈署、採用高相容性 PCIe 介面的 NVIDIA H100 NVL 模組。在這兩項推論新品加入陣容後,與先前已經公布的 NVIDIA L40 GPU 、 Grace Hopper Superchip 構成基於新世代架構的推論產品線。 NVIDIA 希冀藉由更廣泛且彈性的加速運算系統,迎接 AI 的「 iPhone 時代」(註:指 AI 將迎來如 iPhone 帶動智慧手機一樣的時期)。 NVIDIA Grace Hopper Superch
2 年前
GTC 2022 : NVIDIA 宣布晶粒互連 NVLink-C2C 技術將開放,客戶可依需求將 NVDIA GPU 、 CPU 、 DPU 、 NIC 與 SoC 整合為客製化資料中心晶片
NVIDIA 在 GTC 2022 重磅宣布將 NVLink 技術延伸到晶片對晶片層級推出晶粒到晶粒的 NVLink-C2C 技術,除了將用於結合兩顆 Grace CPU 的新一代超級處理器晶片 Grace CPU SupeChip 與結合 Grace CPU 與 Hopper GPU 的 Grace Hopper SuperChip 外,也開放給客戶進行資料中心客製化晶片,客戶可依照資料中心特性自 NVIDIA 提供的 GPU 、 CPU 、 DPU 、 NIC 與 SoC 等產品進行組合,透過 NVLink-C2C 技術以晶粒對晶粒層級連接方式,打造比晶片級連接更具效率的系統級整合晶片。
3 年前
NVIDIA 收購 Arm 再受英國阻撓,表示此樁交易牽涉英國國家安全
NVIDIA 在 2020 年 9 月宣布自日本 SoftBank 軟銀集團手中以 400 億美金收購英國 Arm ,當時也引起科技業界一片譁然,除了高額的成交價以外,也是以提供 IP 不干涉半導體生產的 Arm 首度易手到單一晶片供應商手中;可預期這樁牽涉過於複雜的收購案勢必會遭受業界阻礙,除了如使用 Arm 授權的蘋果、高通、聯發科等半導體業界競爭者,原本 PC 產業競爭對手 AMD 與 Intel 以外,近期被美國貿易戰搞的烏煙瘴氣的中國,還有始終認為 Arm 是英國人的驕傲的英國都不樂見此樁收購案成立,現在再度傳出英國以恐影響國家安全為由,再度為此併購案出手阻撓。 根據報導指出,雖然
4 年前
觀點: NVIDIA Grace 不僅只是超算級 CPU ,更是 NVIDIA 加速運算戰略的中樞
NVIDIA 在今年 GTC 大會宣布首款針對超級運算、 AI 與資料中心的 CPU 產品,以知名女性程式設計師 Grace Hopper 做為產品代號,並採用 Arm 的 Neoverse CPU 架構作為基礎,從表面來看, Grace 是 NVIDIA 首度跨足超高效能 CPU 領域,但從對 NVIDIA 整體布局而言, Grace 更是使 NVIDIA 實現理想加速運算的樞紐。 對於 NVIDIA 而言,基於 GPU 的異構加速運算是他們自消費娛樂、視覺影像邁向超級運算之路的關鍵,除了科學運算領域以外,在使用機械神經網路架構的機器學習成為 AI 主流後, NVIDIA 更進一步成為新世代
4 年前
NVIDIA 公布 Arm 架構超算處理器 NVIDIA Grace ,基於 Arm Neoverse 架構、頻寬達 900GBps 的第四代 NVLink ,預計 2023 登場
NVIDIA 當前在超級電腦領域仍得仰賴與 Intel 或 AMD 合作,不過未來 NVIDIA 也將針對超級電腦與 AI 運算推出自研 CPU 了; NVIDIA 在此次 GTC 大會由執行長黃仁勳宣布將推出名為 NVIDIA Grace 的自研 CPU ,基於新一代 Arm Nerverse 超算微架構,並且藉由新一代頻寬高達 900GBps 的 NVLink , NVIDIA Grace 得以在多個 CPU 與 GPU 之間共享資料與記憶體,突破現行 GPU 受制 PCIe 頻寬難以高速存取系統記憶體的限制,有助於透過大容量系統記憶體執行大規模科學運算與 AI 訓練。 ▲ NVIDIA
4 年前
ALTOS 展示將 GPU 加速器與 CPU 機箱分離設計,讓 CPU 搭配更具彈性
一般伺服器設計多將 CPU 與 GPU 配置在同一個機箱當中,不過如此一來也多少限制了 CPU 與 GPU 的搭配,而隸屬於宏碁的伺服器品牌 ALTOS 則在 SC18 展示將 GPU 加速器與 CPU 分為兩套機箱,再透過 MiniSAS 或是 CDFP 介面連接的系統。 ALTOS 的 G816F5 內所搭載即是 NVIDIA DGX-2 上兩套 NVLink 搭配 NVSwitch 所構成的 16 GPU 加速器模組,藉由 NVLink 與 NVSwitch 連接後,對於 CPU 而言,可視同連接到一個超大型的 GPU 上。 將 GPU 加速器與 CPU 分開最大的優勢,就是可讓客戶依照
6 年前

相關文章