產業消息 COMPUTEX台北國際電腦展 AMD Google nvidia Ethernet 微軟 nvlink Mellanox InfiniBand UALink Ultra Ethernet 機架 COMPUTEX 2024:AMD將聯手Intel、Google、博通以開放的UALink晶片互聯標準與Ultra Ethernet圍攻NVIDIA的AI光明頂 AMD執行長Lisa Su在COMPUTEX 2024主題演講最後一項AI與加速運算的環節是介紹連接技術,然而Lisa Su特別強調AMD為了與生態系夥伴共同茁壯並未選擇自行發展技術,而是與包括Intel、Google、Meta、博通、微軟等產業夥伴共推開放產業標準,包括針對晶片級互聯的UALink,以及機架高速乙太網路互聯標準Ultra Ethernet,這種放下過去相互競爭、跨品牌陣營攜手合作頗有武俠小說六大門派圍攻光明頂的意象。 ▲UALnik是由NVIDIA以外的多家AI加速運算公司聯合推動的高速晶片互連開放標準 ▲Ultra Ethernet也是為了抗衡承接Mellanox機架互連網 Chevelle.fu 1 年前
產業消息 COMPUTEX台北國際電腦展 台灣 nvidia gpu cuda 供應鏈 Hopper 加速運算 Grace Hopper SuperChip 大型語言模型 生成式AI Blackwell GB200 NVL72 GB200 Superchip COMPUTEX 2024:NVIDIA黃仁勳於主題演講力挺台灣產業鏈,並深入淺出的方式介紹NVIDIA如何透過GPU與大量軟體資源驅動AI革命 NVIDIA獨立於COMPUTEX 2024大會主題演講前的週日晚間,由執行長黃仁勳於台大體育館親自主持主題演講;這場主題演講可視為黃仁勳回報給台灣產業供應鏈、政府機關與研究單位長期合作的深情告白,無論是開場與台灣科技產業大老走訪夜市的前導影片,台灣科技公司如何應用其技術,還有中央氣象局的氣象預報專案計畫,再再強調NVIDIA與台灣密不可分,也多次感謝台灣產業鏈與NVIDIA攜手共進,同時活動中許多的短片的中文解說,則是透過黃仁勳的聲音訓練的合成語音,黃仁勳還打趣的說她的中文說得不夠好怕詞不達意,只好自己撰稿讓AI代勞。 ▲前導短片是剪輯黃仁勳在COMPUTEX前與台灣科技產業大老四處走訪夜市 Chevelle.fu 1 年前
科技應用 COMPUTEX台北國際電腦展 颱風 nvidia AI 中央氣象局 天災 黃仁勳 Earth-2 COMPUTEX 2024:NVIDIA Earth-2計畫繼續攜手中央氣象局實現更精準的氣象災害預測,未來還可預測建築下沖現象的額外災害 NVIDIA的Earth-2是一項建構在Omniverse結合3D圖像運算、物理模擬、AI與歷史氣候資料的超大型數位孿生計畫,終極目標是透過Omniverse環境建構地球的超大型數位孿生,並藉此預測與預防各項天災與可能造成的衝擊;在2024年的GTC大會,黃仁勳已經在台上特別介紹與台灣中央氣象局合作的結果,表示在Earth-2環境已經可將颱風的預測範圍自25公里縮減至2公里,而在COMPUTEX 2024的主題演講,黃仁勳進一步介紹與台灣中央氣象局在天氣預測的進展。 ▲Earth-2是一項以模擬與預測地球氣候為終極目標的超大型數位孿生計畫,希冀能降低天災的影響 ▲結合AI技術後能將衛星圖增強1 Chevelle.fu 1 年前
產業消息 COMPUTEX台北國際電腦展 nvidia 乙太網路 架構 HBM3e HBM4 Rubin Blackwell Ultra Rubin Ultra COMPUTEX 2024:NVIDIA運算產品線將採GPU架構兩年更新隔年小改版的週期,2026推出Vera CPU與Rubin GPU NVIDIA在2024年5月的財報電話會議宣布GPU加速與AI產品將逐年更新,在NVIDIA CIMPUTEX 2024的主題演講,NVIDIA執行長黃仁勳呼應在電話會議的說法,但進一步釐清逐年更新的定義;與業界原本預期不同的是NVIDIA並不打算改變當前兩年一次GPU架構更新的節奏,而是將Hopper架構推出隔年的升級更新變成常態;不過更驚喜的是黃仁勳也在這場活動公告2026年的新GPU就以「Rubin」作為代號,同時也會推出新一代Arm指令集CPU「Vera」,循「Grace Hopper」模式致敬知名天文學家Vera Rubin。 ▲NVIDIA的每年更新實質上就是把H100在隔年推出記 Chevelle.fu 1 年前
科技應用 COMPUTEX台北國際電腦展 nvidia AI 語音 自然語言 大型語言模型 Project G-Assist COMPUTEX 2024:NVIDIA推出Project G-Assist應用程式AI查詢技術,透過AI幫助玩家解決遊戲、內容創作遇到的疑難雜症 NVIDIA在遊戲與AI的結合較其它GPU供應商更為積極,除了是最早宣布利用AI增強遊戲幀率的品牌外,也將AI活用到遊戲的各類應用,甚至如RTX Remix技術還為經典遊戲重製MOD玩家提供AI的材質增強技術;而NVIDIA在COMPUTEX 2024再宣布AI增強應用,稱為Project G-Assist,是使玩家在遊戲內或是內容創作軟體內遇到難題,或者是性能設定等問題,可透過與AI互動的方式找尋問題的解決辦法。 ▲透過大型語言模型與資料庫為基礎,使AI幫助玩家、內容創作者解決各式疑難雜症 Project G-Assist是透過一套AI框架技術,使玩家可在應用程式內呼叫文字輸入框,利用大型語 Chevelle.fu 1 年前
遊戲天堂 Founders Edition RTX 4070 RTX 4070 Ti RTX 4080 Super RTX 4070 Ti Super RTX 4070 Super SFF-Ready 中高階顯示卡 COMPUTEX 2024:NVIDIA為小型化系統制定SFF-Ready發燒顯示卡規範,散熱器最大尺寸2.5槽、長304mm 現在中高階顯示卡為了散熱需求,加上滿足趁斤論兩重視尺寸的玩家等因素,尺寸有越來越失控的趨勢,尤其對於選擇Mini-ITX主機板的SFF(Small Form Factor)玩家而言,只能為了裝進中高階顯示卡選擇可裝進M-ATX尺寸主機板的機殼,也逐漸失去選擇SFF系統的意義;NVIDIA在COMPUTEX 2024的主題演講活動宣布為SFF系統玩家制定SFF-Ready發燒顯示卡規範,制定一個的散熱器尺寸規格限制,並透過認證計畫為機殼與顯示卡進行認證,使SFF玩家可建構兼具微型化與效能的電腦系統。 ▲目前合規最高規格的晶片為GeForce RTX 4080 Super,不過多數品牌以4070系 Chevelle.fu 1 年前
產業消息 AMD intel nvidia pcie AI broadcom nvlink UALink 包括AMD、Intel等反NVIDIA NVLink聯軍共同推出UALink開放連結標準,實現AI加速器高速互通 NVIDIA的NVLink是為了通用的PCIe無法實現NVIDIA希冀的異構高速互連所開發的連結技術,隨著NVIDIA成為引領當前AI加速與HPC運算的龍頭,包括AMD、Intel、博通、Cisco、Google、HPE、Meta,微軟等其它陣營決定攜手推出抗衡開放高速連接標準UALink,預計在2024年第三季正式成立聯盟組織。 UALink(Ultra Accelerator Link)的目的大致上與NVLink相同,是為了因應AI加速時代異構處理器高速多向連結的傳輸技術,唯獨特別強調是開放標準,以對照由NVIDIA獨立開發的NVLink技術。 在目前公布的UAlink 1.0規範,一個運 Chevelle.fu 1 年前
產業消息 COMPUTEX台北國際電腦展 COMPUTEX 2024 HOMEE AI AI KIOSK 以3D AI室內設計聞名的NVIDIA Inception成員HOMEE AI開設首間AI空間實驗店,並預告參與COMPUTEX 2024 善於空間運算且推出3D AI室內設計師服務的NVIDIA新創計畫NVIDIA Inception成員HOMEE AI宣布設立第一間AI空間實驗店,位於台灣科技重鎮竹北(看起來目標客群似乎很明確?),使民眾可透過AI打造室內設計,後續也將進一步在門市推出AI KIOSK,朝向打造AI無人家具店;此外HOMEE AI也將參與COMPUTEX 2024產業品牌館,展現其基於AI的服務與技術;當前已有多個國際家具品牌、地產、連鎖家具通路與設計公司與HOMEE AI洽詢導入3D AI設計師服務。 HOMEE AI 產業品牌館 參展時間:2024/6/4(二) - 6/7(五) 場館地點:南港展覽館二館 Chevelle.fu 1 年前
科技應用 AMD intel nvidia 人工智慧運算 AMD 蘇姿豐提出 3 年百倍算力計畫 劍指 NVIDIA AMD 執行長蘇姿豐博士在 IMEC 獲頒創新大獎,宣布 AMD 未來三年計畫,2025 年運算效能提升至 2020 年的 30 倍。 近期於比利時微電子研究中心 (IMEC(舉辦的ITF世界2024大會上,AMD執行長蘇姿豐博士獲頒IMEC創新大獎,同時也透露AMD未來三年發展計畫,其中包含將於2025年實現將運算效能提升為2020年的30倍,並且計畫在2027年使運算效能提升為2020年的100倍。 過去在2014年時,AMD也曾提出名為「25 x 20」的發展計畫,當時計畫在2020年使處理器、顯示卡運算效能提升為2014年的25倍,而在那之後推動的Zen架構與RDNA顯示架構也讓AMD Mash Yang 1 年前
產業消息 CPU nvidia gpu cuda AI 黃仁勳 基礎設施 加速運算 Grace CPU Blackwell NVIDIA黃仁勳在財報透露將加速運算產品週期從現行兩年縮減至一年 由於晶片產品研發需要時間與人力,尤其越複雜的運算產品需要更多的開發週期,NVIDIA在數年前定調將GPU產品架構的更迭週期延長至兩年一輪,不過也許是受到NVIDIA因AI迅速發展與成長,NVIDIA執行長黃仁勳在財報會議透露加速運算產品週期將加速到一年,且不僅只有加速CPU產品,還包括CPU、網路產品。 在NVIDIA的財報簡報透露的消息,NVIDIA已經預計在2025年推出暫稱X100的GPU產品(但極可能是代稱,先前傳聞架構名稱將會致敬知名女性天文學家以Rubin為名),此外還有整合Arm CPU的GX200NVL、GX200,針對基礎設施推論的X40,還有新一代的1,600G網路基礎設施 Chevelle.fu 1 年前