產業消息 AI 機器人 自動化工業 協作工具 智慧製造 Jetson Orin 優傲科技年度活動協作機器人盛會2025首度移師台灣,最新AI加速器與協作自動化技術在台展出 知名協作機器人品牌Universal Robots(優傲科技,UR)宣布其年度活動Collaborate協作機器人盛會將首次在台舉辦,於2025年5月8日在新竹喜來登進行,是優傲科技首度將在美洲、歐洲與亞洲各國舉辦過的大型活動移師台灣;預計將展示最新的AI加速器產品,並偕同TUV SUD、梅卡曼德機器人、Robotiq等產業專家與UR+生態夥伴展示最新的協作自動化趨勢,與會者可近距離體驗超過20組協作機器人應用的展示,包括半導體、電子零組件、金屬加工、醫療製藥等場景,揭示未來智慧製造趨勢。 優傲科技以基於PolyScope平台為基礎的UR機械手臂提供容易部署、靈活與具擴充性的特性,並結合UR+ Chevelle.fu 22 天前
科技應用 Softbank 資料中心 OpenAI Stargate Nvidia GB200 GPU OpenAI 「Stargate」計畫將安裝 64,000 張 Nvidia GB200 GPU 加速器 OpenAI 與美國政府合作推動的星際之門計畫,將採用 64000 張 Nvidia GB200 GPU 加速運算,用於大規模 AI 研究。 今年初時,包含OpenAI、Softbank、甲骨文在內業者與白宮共同宣布成立名為「Stargate」人工智慧資料中心計畫,將額外加入阿拉伯聯合大公國的人工智慧投資公司MGX注入資金,預計在未來4年內以5兆美元經費建造OpenAI全新人工智慧基礎設施。依照彭博新聞報導指稱,此計畫位於德州阿比林 (Abilene)的資料中心,預計會在2026年底前安裝6萬4000組NVIDIA GB200 GPU加速器。 而這些GPU加速器預計分階段完成安裝,首波預計先在 Mash Yang 2 個月前
產業消息 micron nvidia AI 美光 加速器 HBM4 美光2026年量產的HBM4將提供NVIDIA Rubin R100等下一代AI加速器使用,並已投入HBM4E的開發 美光的HBM3E順利打入NVIDIA AI加速器的供應鏈,其中HBM3E成為NVIDIA H200搭配的記憶體;根據美光財報會議紀錄,美光將在2026年量產HBM4,作為屆時如NVIDIA的「Rubin」NVIDIA R100等先進加速器搭配,此外美光也投入HBM4E的開發,倘若時程能夠配合,應該會成為NVIDIA小改版世代的R200所搭配的記憶體。 ▲NVIDIA的Rubin R100加速器預期會採用美光HBM4記憶體 目前AI加速器的GPU由SK Hynix取領先,三星與美光仍設法從中突圍,其中美光鎖定高性能與客製化服務作為與其它競爭者的差異化;美光預期在2026年推出HBM4記憶體,將較 Chevelle.fu 4 個月前
產業消息 nvidia 光通訊 半導體 3D 封裝 SiPh 矽光子 NVIDIA未來的AI加速器將邁向矽光子通訊與記憶體3D堆疊發展,可能在2028年至2030年實作 NVIDIA在IEDM大會展示對下一代AI加速器的設計概念願景,其中有兩項重點:矽光子(SiPh)與3D記憶體堆疊;NVIDIA於IEDM介紹下一代加速器的願景時,就提到將利用SiPH取代現行的電通訊作為大型運算GPU的中介層。 SiPh矽光子是採用光通訊的技術,相較現行的電通訊方式具備更高的頻寬與更低的延遲,同時也更為省電;除了作為中介層以外,NVIDIA也在新GPU晶片計畫利用SiPh作為連接多個晶粒的通訊技術,使多個GPU晶粒之間能夠以更高速、低延遲的通道連接與互通。 Here's @NVIDIA's vision of the future of AI compute. Chevelle.fu 5 個月前
產業消息 intel hpc 生成式AI Gaudi 3 Xeon 6 Intel攜手供應鏈夥伴展示Xeon 6處理器與Gaudi加速器系統解決方案,強調即便搭配NVIDIA方案仍是加速CPU最佳解 Intel在台灣攜手多家供應鏈夥伴展示採用全P-Core架構的Intel Xeon 6處理器與Intel Gaudi 3加速器的最新系統與解決方案,包括智邦科技、安提國際、其陽科技、永擎電子、華碩電腦、仁寶電腦、鈺登科技、鴻海科技集團、技嘉科技、威強電、英業達、神雲科技、微星科技、和碩聯合科技、雲達科技(QCT)、神準科技、美超微、緯創資通、緯穎科技皆展示最新的系統與解決方案;Intel強調其Xeon 6處理器為AI世代最佳處理器,承襲長年累積的運算資產與整合AI加速,搭配Gaudi 3加速器如虎添翼,但因應客戶多元需求,即便搭配NVIDIA加速器方案也是最佳選擇。 ▲Intel強調將延續Pa Chevelle.fu 5 個月前
產業消息 AMD EPYC Zen 5 Instinct MI350X Instinct MI325X Instinct MI400X AMD公佈最多192 Zen 5核心的第5代EPYC處理器、AMD Instinct MI325X加速器 AMD於Advancing AI 2024活動公佈新一代資料中心與加速運算產品,包括採用Zen 5架構、最高192核心的第5代EPYC 9005系列處理器,以及基於Instinct MI300X的增強版本Instinct MI325X,同時展示如何與合作夥伴大規模部署AMD AI解決方案、以及透過AMD ROCm開源AI軟體產業鏈擴大AMD AI布局。 ▲AMD EPYC 9005資料中心處理器提供最高192核心配置,至於預計2026年問世的Instinct MI400X將採用嶄新的CDNA Next架構 AMD EPYC 9005系列處理器為AMD第5代EPYC產品線,基於Zen 5架構,並 Chevelle.fu 7 個月前
產業消息 intel P Core 生成式AI Gaudi 3 Xeon 6 Intel公布新一代AI解決方案Xeon 6資料中心處理器與Gaudi 3 AI加速器 Intel正式公布全新AI解決方案組合,包括採用全P-Core的Xeon 6,以及大幅提升性能的Gaidi 3 AI加速器;全P-Core的Xeon 6鎖定AI與HPC工作負載,而Gaudi 3 AI加速器不僅較前一代提高20%吞吐量、對比業界主流的NVIDIA H100,可在同樣成本執行Llama 2 70B推論提供2倍性能,Intel強調結合Xeon 6處理器與Gaudi 3 AI加速器能提供出色的每瓦最佳效能並降低總成有成本(TCO)。 Xeon 6 ▲Xeon 6較前一代提升兩倍的性能,並將AI加速功能融入每個核心 Intel此次公布的Xeon 6為全P-Core(基於Lion Cov Chevelle.fu 7 個月前
產業消息 AMD EPYC Genoa Instinct MI300 Ryzen AI 300 AMD將在10月11日凌晨舉辦Advancing AI 2024,。聚焦新一代AMD Instinct加速器與第5代Epyc處理器 AMD預告將在北美時間2024年10月10日、台灣時間10月11日凌晨0點舉辦Advancing AI 2024活動,將透過實體與線上同步方式舉行,將聚焦於新一代AMD Instinct加速器、第5代EPYC處理器與網路及AI PC。 Advancing AI 2024將在台灣時間10月11日凌晨透過AMD官網與AMD YouTube頻道進行直播 ▲預期此場活動將聚焦在Instinct MI325X,也許也會一併提及預計在2025年登場的Instinct MI350 此次視為重點的新一代Instinct加速器應該即是Computex 2024所預告代號Instinct MI325X的加速器產品 Chevelle.fu 8 個月前
產業消息 COMPUTEX台北國際電腦展 nvidia 資料中心 加速運算 Blackwell B100 GB200 Grace Blackwell B200 COMPUTEX 2024:NVIDIA展示Blackwell B200與B100加速器參考設計,明顯感受不同TDP設計對散熱器要求的變化 NVIDIA在COMPUTEX 2024期間依照往例於場外的飯店設置情境展示區,其中展示更接近量產的Blackwell平台組合,除了執行長黃仁勳在COMPUTEX 2024主題演講拿出的量產版本GB200模組,還包括在GTC 2024期間僅透過規格資料公布的B100 GPU的參考設計。 GB200正式版模組下方I/O通道改為LGA插槽 ▲GB200正式版本除了晶圓覆有金屬遮罩外,原本Grace CPU下方的多個疑似PCIe插槽也改為LGA插槽 ▲GTC 2024出現的量產版本下方有多個類似PCIe的插槽 GB200模組正式版本雖乍看下與GTC 2024展示的版本酷似,似乎僅有晶片加上金屬遮罩, Chevelle.fu 11 個月前
產業消息 AMD intel nvidia pcie AI broadcom nvlink UALink 包括AMD、Intel等反NVIDIA NVLink聯軍共同推出UALink開放連結標準,實現AI加速器高速互通 NVIDIA的NVLink是為了通用的PCIe無法實現NVIDIA希冀的異構高速互連所開發的連結技術,隨著NVIDIA成為引領當前AI加速與HPC運算的龍頭,包括AMD、Intel、博通、Cisco、Google、HPE、Meta,微軟等其它陣營決定攜手推出抗衡開放高速連接標準UALink,預計在2024年第三季正式成立聯盟組織。 UALink(Ultra Accelerator Link)的目的大致上與NVLink相同,是為了因應AI加速時代異構處理器高速多向連結的傳輸技術,唯獨特別強調是開放標準,以對照由NVIDIA獨立開發的NVLink技術。 在目前公布的UAlink 1.0規範,一個運 Chevelle.fu 11 個月前