產業消息 COMPUTEX台北國際電腦展 nvidia AI Computex 生成式AI Blackwell NVIDIA GB200 NVIDIA B200 GB200 NVL72 NVIDIA執行長黃仁勳將在6月2日於台大體育場舉辦COMPUTEX主題演講,6月5日另舉辦NVIDIA AI Summit Taiwan 先前在NVIDIA官方的行程已經確定NVIDIA執行長黃仁勳將於COMPUTEX 2024大會主題演講的前一日、也就是2024年6月2日晚間7點獨立舉辦COMPUTEX主題演講;NVIDIA官方正式公告黃仁勳的主題演講將選在台大綜合體育場舉辦,似乎是呼應NVIDIA GTC 2024在SAP Center的演唱會等級格局,預期將以NVIDIA GTC 2024公布的產品、技術為主軸進行延伸,包括Blackwell架構、NVIDIA GB200 Superchip、NVIDIA B200 GPU、NVIDIA GB200 NVL72系統等都會是重點。 目前NVIDIA COMPUTEX 2024 Chevelle.fu 1 年前
產業消息 Google nvidia 新創公司 NVIDIA H100 大型語言模型 生成式AI TensorRT-LLM NVIDIA GB200 NVIDIA B200 NVIDIA攜手Google Cloud結合雙方新創扶持計畫加速生成式AI發展,Google Cloud 2025年初導入NVIDIA Blackwell平台 NVIDIA與Google Cloud於Cloud Next '24大會宣布共同展開新合作,旨在扶持全球新創加速建立生成式AI應用程式與服務,雙方將結合彼此的NVIDIA Inception、Google for Startup Cloud的新創公司扶持計畫,以擴大雲端積分(Cloud Credit)市場推廣支援與技術專業知識,協助新創公司更快為客戶提供價值。同時Google Cloud也宣布將在2025年初導入Google Blackwell架構產品並提供服務。 雙方計畫相互結合嘉惠生成式AI新創、加速產業發展 NVIDIA Inception是一項支持超過18,000家新創公司的全 Chevelle.fu 1 年前
產業消息 nvidia gpu NVIDIA Hopper MLPerf 推論加速器 NVIDIA H100 大型語言模型 生成式AI Blackwell NVIDIA GB200 NVIDIA B200 NVIDIA H200 NVIDIA Hopper架構TensorRT-LLM使生成式AI推論提升近3倍,H200藉HBM3e記憶體散熱打破MLPerf推論紀錄 雖然NVIDIA甫在GTC 2024公布眾所矚目的全新Blackwell架構,但畢竟Blackwell仍要待到2024年下半年才會開始出貨,故目前最新的NVIDIA AI GPU加速產品為採用美光HBM3e記憶體的NVIDIA H200 Tensor Core GPU;NVIDIA公布全新的MLPerf測試成績,基於Hopper架構的H100借助TensorRT-LLM軟體突破MLPerf的生成式AI測試項突破原本的性能上限,於GPT-J LLM推論性能較6個月前提升近3倍,而陸續出貨的H200 GPU則透過容量、頻寬提升的HBM3e記憶體與更彈性的散熱,一舉刷新多項MLPerf的紀錄。 ▲包 Chevelle.fu 1 年前
產業消息 NVIDIA GTC nvidia DGX SuperPOD Blackwell NVIDIA GB200 NVIDIA B200 DGX GB200 DGX B200 GB200 NVL72 GTC 2024:基於Blackwell GPU的DGX SuperPOD為兆級參數規模生成式AI而生,結合網路、軟體與儲存可擴展到數萬個GB200 Superchip NVIDIA於GTC 2024公布Blackwell架構,也同步宣布基於Blackwell GPU的新一代NVIDIA DGX SuperPOD;不同過往DGX SuperPod採用x86架構與風冷散熱,基於Blackwell架構新DGX SuperPod採用基於Arm Neoverse的Grace CPU與Blackwell GPU構成的NVIDIA GB200 Superchip,並採更高效的液冷散熱架構,透過NVLink可連接至最多576個Blackwell GPU,借助NVIDIA網路、NVIDIA全端AI軟體與儲存最高可擴展數萬個GB200 Superchip,可因應兆級規模的AI超 Chevelle.fu 1 年前
產業消息 NVIDIA GTC nvidia 乙太網路 NVIDIA GB200 NVIDIA B200 Spectrum-X800 Quantum-X800 InfiniBand 交換機 GTC 2024:NVIDIA推出為兆級參數GPU運算與AI基礎設施最佳化的Quantum-X800 InfiniBand與Spectrum-X800乙太網路交換機 NVIDA公布全新GPU架構Blackwell與NVIDA B200 GPU、NVIDIA GB200 Superchip,於此同時,為了因應兆級參數GPU運算與AI基礎設施需求,NVIDA也宣布兩款新型交換機產品,分別為Quantum-X800 InfiniBand與Spectrum-X800乙太網路,提供最高效能AI基礎設施與適合每個資料中心的AI最佳化網路使用,具備最高800Gb/s的端到端吞吐量,同時大幅提升網路內運算性能。 包括微軟Azure、Oracle Cloud Infrastruture、Corewave等宣布將為早期採用者。Aivres、DDN、戴爾科技集團、Eviden、 Chevelle.fu 1 年前
產業消息 NVIDIA GTC nvidia gpu grace 台積電 大型語言模型 生成式AI LLM Blackwell GB200 Grace Blackwell NVIDIA GB200 NVIDIA B200 FP4 FP6 GTC 2024:NVIDIA公布雙晶粒連接的Blackwell架構NVIDIA B200 Tensor Core GPU,GB200 Superchip由1CPU與雙GPU構成 NVIDIA在GTC 2024的重頭戲即是宣布以首位美國科學院黑人學者與研究賽局理論與統計學數學家David Harold Blackwell為名的Blackwell GPU架構,以及基於Blackwell架構的NVIDIA B200 Tensor Core GPU;Blackwell採用六項為加速運算而生的革命性技術,首度採用雙晶粒互連構成一個2,080億電晶體的GPU,同時全新的GB200 Superchip(Grace Blackwell超級晶片)更透過NVLink-C2C將2個NVIDIA B200 Tensor Core GPU與1個Grace CPU連接。 基於Blackwell架 Chevelle.fu 1 年前