產業消息 hpc 電源供應器 AI 伺服器 資料中心 鈦金 肯微科技公布5,250W鈦金伺服器電源供應器,預告2024年內將推出6,000W電源供應器 雖然新一代伺服器硬體的能源轉換效率與每瓦效能越來越出色,但不可諱言的是單一系統的最大能耗還有運算時的能耗也不斷飆漲,當前3,000W級的伺服器電源也漸漸不敷使用;台灣伺服器電源供應器供應商肯微科技(Compuwave Technology)宣布推出5,250W的CRP-5222-1M4鈦金級伺服器電源供應器,具備96%電源轉換效率,此外還預計在2024年內推出6,000W級產品。 ▲隨著單一伺服器系統能耗需求增加,伺服器電源在提高功率的同時也須有出色的能源轉換效率 CRP-5222-1M4是一款Redundant(冗餘)AC-DC電源供應器,取得鈦金級的96%能源轉換效率認證,對於著重環境永續 Chevelle.fu 1 年前
產業消息 intel hpc AI 資料中心 冷卻系統 浸沒式液冷 散熱技術 經濟部工研院攜手Intel成立高算力系統冷卻實驗室,協助台灣產業投入浸沒式冷卻技術發展並與國際標準接軌 隨著新一代高效能運算與AI加速運算需要更強大的散熱能力,許多散熱技術廠商紛紛投入新散熱架構領域,其中浸沒式液冷是熱門的新形態高效能散熱技術;為了加速台灣資料中心先進散熱解決方案以及與國際規範接軌,在經濟部產業技術司科專計畫支持下,工研院攜手Intel台灣分公司簽署合作意向書,並成立「高算力系統冷卻認證聯合實驗室」,希冀能提供台灣相關業者以國際級標準進行驗證。 用電效率(PUE)是全球衡量用電效率的指標,數值越接近1代表效率越佳,台灣國發會已在2017年提出希望政府資料中心能將PUE降至1.6,在產業技術司補助下,工研院已完成千瓦級以上資料中心先進解決方案,此次進一步攜手Intel成立高算力系統 Chevelle.fu 1 年前
產業消息 intel hpc AI 超級電腦 資料中心 工作站 Xeon Scalable Emerald Rapids Intel第5代Xeon Scalable處理器將每個核心內建AI加速,提升效能之餘也強化安全性、提升關鍵工作負載與降低總持有成本 Intel繼於第4代Xeon Scalable加入AI加速器之後,於不到一年時間的2023年12月宣布代號Emerald Rapids的第5代Xeon Scalable問世,強調所有核心皆內建AI加速功能,不僅帶來更高的每瓦效能,同時也降低AI、高效能運算、網路、、儲存資料庫與安全等關鍵工作負載的總持有成本。同時第5代Xeon Scalable仍相容現行第4代Xeon Scalable的軟硬體平台,使客戶能進一步延長基礎設施投資、降低成本與碳排放。 ▲第5代Xeon Scalable可相容第4代Xeon Scalable軟硬體生態 搭載第5代Intel Xeon Scalable的系統將陸續自 Chevelle.fu 1 年前
產業消息 hpc 資料中心 slc nand QLC SSD Solidigm D7-P5810 Solidigm 為密集工作負載儲存推出基於 SLC 的 Solidigm D7-P5810 專業級 SSD ,旨在做為高密度容量層前端儲存加速 Solidigm 公布旗下 D7 高效能專業儲存產品線最新成員 D7-P5810 ,是一款著重寫入密集型工作負載的產品,為因應此類型工作負載採用 SLC NAND ,強調隨機寫入高達 50 DWPD (每日全碟寫入)、循序寫入則達 65 DWPD ,用於快取、 HPC 、資料紀錄、日誌登載的效能高於競品 2 倍,但成本不到非 NAND SCM 技術的 20% 。 D7-P5810 先行推出 800GB 的 U.2 15mm 規格,預計 2024 年上半年推出 1.6TB 版本 ▲ D7-P5810 主要目的是搭配更大容量如 QLC SSD 做為前端的資料中繼、快取或分層儲存的前端使用,並非做為 Chevelle.fu 1 年前
產業消息 nvidia hpc AI GTC 黃仁勳 Hopper NVIDIA 宣布 GTC 大會將於 2024 年三月份回歸聖荷西舉辦,下一代 AI 超算加速器 Hopper-Next 為焦點 NVIDIA 在 Covid-19 期間將年度盛會 GTC 改為線上舉辦,原本有意在 2022 年恢復實體活動,然而 2021 年底至 2022 年期間的情況使 NVIDIA 不得不更改原訂計畫,就連 GTC 2023 都早早就宣布採線上模式;不過隨著全球 COVID-19 疫情趨緩且走入常態化, NVIDIA 預告 GTC 2024 將回歸熟悉的聖荷西,預計於 2024 年的 3 月 18 日至 3 月 21 日期間於聖荷西會議中心舉行。 ▲ NVIDIA 預計在 2024 年公布 Hopper 的後繼產品 至於 2024 年 NVIDIA 的重點也早已揭露,黃仁勳在 2023 Comput Chevelle.fu 1 年前
產業消息 AMD intel micron nvidia hpc AI 美光 HBM3 生成式AI 美光公布 1β 製程 HBM3 Gen 2 記憶體,首批採 8 層堆疊 24GB 容量、具備 1.2TB/s 以上頻寬且更為節能 當前 HBM 記憶體成為 HPC 與 AI 頂級硬體的熱門記憶體規格,美光 Micron 宣布推出新一代的 HBM3 Gen 2 記憶體,初步推出 8 層堆疊的 24GB HBM3 Gen 2 記憶體,預計 2024 年再公布 12 層堆疊的 36GB HBM3 Gen 2 ;美光 HBM3 Gen 2 每腳位傳輸速率超過 9.2GB/s 、較目前市面上 HBM3 方案高出 50% 以上,並達到 1.2TB/s 以上頻寬,同時每瓦效能提升 2.5 倍。 美光 HBM3 Gen 2 將提升 AI 數據中心的關鍵性能、容量與功耗指標,並有助縮減如 GPT-4 等大型語言模型( LLM )與未來更高 Chevelle.fu 1 年前
產業消息 AMD hpc AI RDNA 3 ROCm AMD 公布強化 AI 與大型語言模型效能的 AMD ROCm 5.6 開放軟體平台,並預計於 2023 年內提供特定 RDNA 3 架構繪圖卡與顯示卡使用 雖然目前提到 AI 與大型語言模型 LLM ,多半會直覺聯想到目前在相關領域超高市佔的 NVIDIA 加速平台,不過競爭對手之一的 AMD 當然也不可能坐以待斃,也希冀透過其開放軟體平台 ROCm 協助開發者利用 AMD 硬體提供絕佳的 AI 與 LLM 效能; AMD 宣布最新版本的 ROCm 5.6 ,著重在強化 AI 與 LLM 領域的工作負載;且除了專業級的 CDNA 架構 Instinct 加速器產品以外, AMD 也宣布 2023 年將為特定 AMD RDNA 3 架構的 Radeon Pro 繪圖卡與 Radeon RX 顯示卡提供 ROCm 支援。 ROCm 5.6 提供多項改 Chevelle.fu 1 年前
產業消息 COMPUTEX台北國際電腦展 nvidia hpc 台灣杉 Grace CPU SuperChip TAIWANIA-4 COMPUTEX 2023 :台灣杉四號將採用 NVIDIA Grace CPU SuperChip 作為運算節點 雖然 NVIDIA 在 COMPUTEX 2023 聚焦在 Grace Hopper SuperChip 開始量產並於 2023 年稍晚由系統商進行系統出貨,不過黃仁勳也不忘介紹 NVIDIA 第一款超算級 CPU 產品 NVIDIA Grace SuperChip 的現況,強調相較具有同級效能的 x86 架構 CPU 達 2 倍的能源效率,同時在合作夥伴系統除了先前公布的英國 Isambard 3 以外,在列表上還可看到台灣的台灣杉 4 號 Taiwania-4 也將利用 Grace CPU SuperChip 構成系統節點。 ▲ Grace CPU SuperChip 由兩個基於 Arm Chevelle.fu 1 年前
產業消息 hpc 超級電腦 超算系統 Arm Neoverse Grace CPU SuperChip Isambard 3 英國 Isambard 3 超級電腦以 384 個 NVIDIA Grace CPU Superchip 構成,為低於 270kW 能耗達 2.7PFLOPS 效能的非加速超級電腦 坐落於英國布里斯托與巴斯科學園區的新一代非加速型超級電腦 Isambard 3 成為首批採用 NVIDIA Grace CPU Superchip 的超算系統,同時也進一步為基於 Arm Neoverse 架構的超算系統擴大陣容; Isambard 3 是當前全球前三個環保的非加速型超算系統,相較前身 Isambard 2 提升 6 倍能源效率,以低於 270kW 的能耗,實現 2.7 PFLOPS 的 FP64 峰值效能,旨在推動科學與工業研究領域的突破進展,使歐洲科學研究能於人工智慧、生命科學、醫學、天體物理學與生物學取得突破。 此外包括瑞士國家超級運算中心、美國洛斯阿拉莫斯國家實驗室等亦 Chevelle.fu 1 年前
產業消息 hpc 華碩 超級電腦 台灣杉二號 AIHPC 台智雲於 AIHPCcon 台灣 AI 超算年會發表繁中企業大型語言模型,藉台灣杉二號建構達 1,760 億個參數的福爾摩沙語言模型 由科技部國研院國網中心結合華碩集團於 2018 年成立的台智雲在「 AIHPCcon 台灣 AI 超算年會」活動,公布台灣第一個具備 1,760 億個參數的繁中企業大型語言模型「福爾摩沙」,「福爾摩沙」語言模型相當與 GPT-3.5 同級,是由台灣自有超級電腦系統「台灣杉二號」進行訓練,結合繁中語意理解與文本生成,能提供企業級生成 AI 解決方案應用。 結合全球 25 座商用 AIHPC 之一的台灣杉二號提供商業 AI 服務 ▲福爾摩沙大型語言模型由台灣自架超算系統台灣杉二號完成訓練 除了公布「福爾摩沙」繁中大型語言模型以外,台智雲亦結合 AIHPC 與 No-code 大模型優化平台,打造全 Chevelle.fu 1 年前