產業消息 美光 HBM3e HBM4 Rubin 美光36GB HBM4樣品開始出貨給主要客戶,提升60%以上傳輸性能與提高20%能源效率 具備高吞吐量的HBM記憶體是當前HPC與AI運算不可或缺的關鍵元件之一,美光宣布已經針對多家主要客戶提供36GB 12層 HBM4的樣品,藉由更高的頻寬提升通訊與吞吐量,能夠如大型語言模型、推論推理性能進一步提升;美光強調相較HBM3E提升60%以上的頻寬,同時增強20%的能源效率。 美光預計於2026年量產HBM4記憶體,並預告將與客戶下一代AI平台量產同步 ▲美光HBM4基於1-beta製程,每記憶體堆疊頻寬預期超過2TB/s 美光的HBM4記憶體基於成熟的1-beta DRAM製程,並結合12層先進封裝與記憶體自檢測(MBIST)技術提供AI平台客戶與合作夥伴所需的性能及可靠性;美光HB Chevelle.fu 4 天前
產業消息 COMPUTEX台北國際電腦展 CPU nvidia gpu NVLink-C2C Grace CPU Blackwell Rubin NVLink Fusion Computex 2025:NVIDIA宣布NVLink Fusion半客製化晶片計畫,客戶可建構以NVLink連接的客製化晶片、聯發科及高通皆為合作夥伴 NVIDIA於Computex 2025宣布半客製化晶片計畫NVLink Fusion,強調透過NVLink高速晶片互聯生態系,提供廠商將不同的晶粒混合成客製化解決方案,且除了可活用NVIDIA提供的NVLink-C2C、Grace CPU晶粒、下一代的Rubin CPU晶粒與Blackwell GPU晶粒以外,也開放其他生態系夥伴的晶粒以高速的NVLink相互建構客製化ASIC晶片或晶片相互連接;NVLink Fusion計畫的合作夥伴除了先前已經宣布合作的聯發科外,還包括如世芯電子、Marvell、富士通甚至高通。 ▲NVLink Fusion是利用NVLink的晶片互聯技術為核心,提供搭 Chevelle.fu 27 天前
科技應用 nvidia Hopper Blackwell Rubin 黃仁勳重申算力是 AI 發展真理 NVIDIA 已準備就緒 NVIDIA 執行長黃仁勳再次強調,運算能力是支撐人工智慧技術發展的根本,並表示 NVIDIA 已做好準備,迎接 AI 時代的挑戰 在此次GTC 2025活動上,NVIDIA執行長黃仁勳除了強調Blackwell架構設計的加速器產品已經全面投入生產,預計今年下半年就會進入市場應用,另一方面也重申在人工智慧技術發展趨勢之下,算力推進依然相當重要,而NVIDIA也依舊會堅持先前提出的一年節奏 (One Year Rhythm)技術成長發展目標,因此不僅預計在2026年接續推出下一款Rubin顯示架構產品,更計畫在2028年推進以美國知名物理學家Richard Feynman命名的Feynman顯示 Mash Yang 2 個月前
產業消息 NVIDIA GTC ARM nvidia gpu nvlink HBM4 Rubin Rubin Ultra Vera Feynman Vera Rubin Superchip GTC 2025:NVIDIA執行長證實2026年下半年推出Vera CPU與Rubin GPU同時擴展NVL系統互連,Rubin之後將由Feyman GPU架構接手 NVIDIA執行長黃仁勳於GTC 2025短暫介紹下一代加速運算產品計畫,一如黃仁勳在COMPUTEX 2024的NVIDIA主題演講提及,NVIDIA將在2026年下半年公布包括Vera CPU與Rubin GPU等下一代架構,以及在2027年公布Rubin Ultra增強版GPU;然而此次黃仁勳再進一步的公布更多關於Vera與Rubin的相關細節,最值得關注的是Vera Rubin的NVL機架系統將擴展自144個GPU,而預計在2027年公布的Rubin Ultra NVL機架系統將以NVLink貫串高達576個GPU,進一步擴展單一機架內部高速互連的規模,此外預告Rubin之後的架構將以 Chevelle.fu 2 個月前
產業消息 nvidia 加速運算 Blackwell Rubin Blackwell Ultra 業界指稱NVIDIA有望提前半年公布下一代加速運算架構Rubin,進一步鞏固AI霸業 NVIDIA執行長黃仁勳在COMPUTEX 2024的主題演講上,提及後續GPU加速產品將循兩年一大改的節奏,並在新架構推出的隔年再推出記憶體性能升級版本的小改版;然而根據經濟日報引述產業說法,代號Rubin的NVIDIA加速架構可能會比預期提前6個月公布,同時也會使用3nm製程。 ▲傳Rubin的晶片將較Blackwell大一倍,由4個Tile構成 根據經濟日報指稱,NVIDIA將再度與親密戰友台積電密切合作,並積極打造首款基於3nm製程的AI HPC加速運算晶片;同時引述摩根士丹利分析師說法,Rubin將採3nm與共同光學封裝(CPO)與HBM4記憶體,尺寸較Blackwell增加兩倍,以 Chevelle.fu 6 個月前
產業消息 COMPUTEX台北國際電腦展 nvidia 乙太網路 架構 HBM3e HBM4 Rubin Blackwell Ultra Rubin Ultra COMPUTEX 2024:NVIDIA運算產品線將採GPU架構兩年更新隔年小改版的週期,2026推出Vera CPU與Rubin GPU NVIDIA在2024年5月的財報電話會議宣布GPU加速與AI產品將逐年更新,在NVIDIA CIMPUTEX 2024的主題演講,NVIDIA執行長黃仁勳呼應在電話會議的說法,但進一步釐清逐年更新的定義;與業界原本預期不同的是NVIDIA並不打算改變當前兩年一次GPU架構更新的節奏,而是將Hopper架構推出隔年的升級更新變成常態;不過更驚喜的是黃仁勳也在這場活動公告2026年的新GPU就以「Rubin」作為代號,同時也會推出新一代Arm指令集CPU「Vera」,循「Grace Hopper」模式致敬知名天文學家Vera Rubin。 ▲NVIDIA的每年更新實質上就是把H100在隔年推出記 Chevelle.fu 1 年前