美光公布 1β 製程 HBM3 Gen 2 記憶體,首批採 8 層堆疊 24GB 容量、具備 1.2TB/s 以上頻寬且更為節能

2023.07.28 01:23PM

當前 HBM 記憶體成為 HPC 與 AI 頂級硬體的熱門記憶體規格,美光 Micron 宣布推出新一代的 HBM3 Gen 2 記憶體,初步推出 8 層堆疊的 24GB HBM3 Gen 2 記憶體,預計 2024 年再公布 12 層堆疊的 36GB HBM3 Gen 2 ;美光 HBM3 Gen 2 每腳位傳輸速率超過 9.2GB/s 、較目前市面上 HBM3 方案高出 50% 以上,並達到 1.2TB/s 以上頻寬,同時每瓦效能提升 2.5 倍。

美光 HBM3 Gen 2 將提升 AI 數據中心的關鍵性能、容量與功耗指標,並有助縮減如 GPT-4 等大型語言模型( LLM )與未來更高階版本的訓練時間,在提升 AI 基礎硬體性能之餘提供卓越的總體擁有成本。

▲美光先推出 8 層堆疊的 24GB HBM3 Gen 2 ,預計 2024 年送樣 12 層堆疊、 36GB 版本

美光 HBM3 Gen 2 採用 1β DRAM 製程節點,將總共 24GB 晶粒以堆疊 8 層高度方式構成立方體,同時也將於 2024 年送樣 12 層的 36GB HBM3 ,將可比競品高出 50% 容量。美光在 HBM3 Gen 2 透過比當前 HBM3 高出一倍的矽晶穿孔數量,以及以五倍金屬密度減少熱阻抗,藉此實現低功耗。美光透過參與台積電 3DFabric 聯盟夥伴,與台積電導入與整合 AI 及高效能運算設計的運算系統,台積電當前已收到美光 HBM3 Gen 2 樣品並進行評估與測試。

在當前最熱門的生成式 AI 技術,美光 HBM3 Gen 2 的高頻寬與容量發揮關鍵效用,每組堆疊達 24GB 容量、每腳位大於 9.2GBps 的傳輸速度能減少 30% 大型語言模型的訓練時間,除了降低總體持有成本,也能提升每日查詢次數;此外由於優異的每瓦效能,已裝設 1,000 萬個 GPU 計算,每組爹蝶能減少 5W 效能、在 5 年使用可省下達 5.5 億美金的營運成本。

相關消息

雲端服務
AI 智轉百業賦能企業,2025 Google Cloud Summit Taipei 引領最新生成式 AI 應用
癮特務
2 天前
應用教學
2025中華職棒CPBL明星賽懶人包:中職6隊入選選手、啦啦隊班表、賽程表、免費直播線上看
Zero圈圈
23 個小時前
開箱評測
Sony新款相機RX1R III:想存錢千萬別碰
Gizmodo Japan
22 個小時前
Xbox Game「Lips」Model
stoneip
16 年前
遊戲天堂
最大模組網站Nexus Mods於歐洲與英國實施年齡認證 色色模組取得難度提升
凱拉特
1 天前
快訊
樂維 RK 藍牙無線機械鍵盤只要 2290,CP 未免也太高
Shopping guide
1 個月前
開箱評測
在3coins找到的「捕蟲器」可能是害怕昆蟲的人的救星
Gizmodo Japan
22 個小時前
開箱評測
壽命長達8年又堅固耐用 來看看行動電源新世代產品以及它的價格
Gizmodo Japan
1 天前
遊戲天堂
任天堂Switch 2執行Fornite的幀率領先iPhone 16 Pro Max,但座機模式的耗電量也是A18 Pro的4倍
Chevelle.fu
21 個小時前