Intel 執行長稱將收復 AMD 在個人電腦與伺服器的處理器失土,但分析師認為很拚
Intel 近期雖然在 Pat Gelsinger 接任執行長後進行大刀闊斧的改革,不過畢竟包括祖產半導體製程以、架構設計與先前瘋狂併購後的資源重整等問題積習已深, Intel 目前的狀況仍稱不上滿血復活,尤其 Intel 新一季財報低於華爾街預期約 30 億美金,更顯得 AMD 當初在 Lisa Su 領導下趁 Intel 委靡不振時搶下包括消費級個人電腦與資料中心及伺服器的處理器市場;然而 Pat Gelsinger 聲稱 Intel 已經度過最糟糕的改革期,認為 2023 年會回歸軌道並奪回失去的市占,只是許多產業分析師並不看好 Pat Gelsinger 的說法。 根據路透社報導指稱,
2 年前
Computex 2021 : Intel 強調 AI 以 XPU 架構為核心戰略,以 Xeon 為核心搭配異構運算解決複雜而廣泛的運算問題
Intel 在 Computex 的人工智慧主題演講,由英特爾業務行銷暨公關事業群副總裁暨人工智慧、高效能運算與資料中心加速器解決方案與業務總經理 Nash Palaniswamy 針對 Intel 的人工智慧戰略進行介紹,圍繞在以 Intel XPU 架構為核心,以多元的技術組合解決複雜的 AI 問題。 ▲第 3 代 Xeon Scalable 是業界第一款整合 AI 加速的 x86 CPU ▲針對現代化 AI 應用提升性能 代號 Ice Lake 的第 3 代 Xeon Scalable 是 Intel 針對人工智慧的中心架構,除了具備更多核心、更高效能、支援新一代傳輸通道外,也是當前業界
4 年前
Intel 在 MLPerf 提出實績打破 NVIDIA 獨佔局面, Habana Gaudi2 成 NVIDIA 外唯一提交 GPT-3 LLM 結果方案
由於投入大量先前軟硬體準備以及積極開放軟體生態,現在 AI 產業產生僅有 NVIDIA 解決方案足以執行生成式 AI 與大型語言模型( LLM )訓練的迷思, Intel 在最新的 MLPerf 提交旗下包括 Habana Gaudi 2 深度學習加速器與第 4 代 Xeon Scalable 的成績,希冀以實證打破業界迷思,為希望擺脫單一生態系限制的客戶提供不同的選項。 其中最新的 MLPerf Traning 3.0 結果也證實 Habana Gaudi 2 具備完善的軟硬體技術,能在 GPT-3 獲得實證,並成為除了 NVIDIA 以外提交 GPT-3 LLM 訓練基準測試效能結果的半導
2 年前
NVIDIA 恭賀 Intel 推出第 3 代 Xeon Scalable ,因為 Ice Lake 終於提供可發揮 NVIDIA A100 潛力的 PCIe 4.0
Intel 在昨天深夜宣布代號" Ice Lake "的第 3 代 Xeon Scalable 平台發表,而 NVIDIA 也旋即在不久宣布 Ice Lake 平台將可進一步發揮 NVIDIA GPU 加速技術的潛力,其中一項關鍵即是 Ice Lake 終於升級到 AMD 在第 2 代 EPYC " ROME "就導入的 PCIe 4.0 技術。 NVIDIA 自 Ampere 架構起開始導入 PCIe 4.0 的支援,在超算加速、 AI 、專業影像等領域也提供基於 Ampere 的 NVIDIA A100 、 NVIDIA A40 與 NVIDIA RTX 虛擬工作站等技術,然而在前一世代的
4 年前
Intel 公布 Xeon Scalable 產品藍圖, Emerald Rapids 、 Sierra Forest 陸續在 2023 年末至 2024 年上半接力問世
Intel 於台灣時間 2023 年 3 月 29 日深夜的英特爾資料中心及 AI 投資者網路研討會宣布 Xeon Scalable 的未來藍圖,在代號 Sapphire Rapids 的第 4 代 Xeon Scalable 量產問世後, Intel 預告採用新一代 P Core 、代號 Emerald Rapids 的下一代平台確認冠上第 5 代 Xeon Scalable 的頭銜並於 2023 年第四季問世,同時 2024 年上半年將宣布最多單插槽 144 核的全 E-Core 產品 Sierra Forest ,並公布後續還將有包括 Granite Rapids 、 Clearwate
2 年前
Intel 第 4 代 Xeon Scalable 處理器終於正式推出,具備 HBM 版本列入 Xeon CPU Max 系列
Intel 寄予厚望、代號 Sapphire Rapids 的第 4 代 Xeon Scalable ( Xeon 可擴充處理器)在北美時間 2023 年 1 月 10 日正式公布,同時先前預告過具備 HBM 記憶體的 Sapphire Rapids HBM 版本納入 Xeon CPU Max 系列產品,並與代號 Ponte Vecchio 的 Data Center GPU Max 系列構成完整的 Max 系列加速運算產品線。 Intel 強調第 4 代 Xeon Scalable 不僅是效能的升級,更全面整合新世代加速技術,滿足當前在資料中心、 HPC 與 AI 整合的需求,並輔以新一代通
2 年前
超過 60 款以上採用 Intel 第四代 Xeon Scalable 處理器與 NVIDIA Hopper GPU 的加速系統開始出貨,執行效率較傳統資料中心高出 25 倍
隨著代號 Sapphire Rapids 的 Intel 第四代 Xeon Scalable 處理器正式公布, NVIDIA 也同步宣布將有包括 NVIDIA DGX H100 與合作夥伴設計共超過 60 款以上加速系統問世,強調相較傳統資料中心高出 25 倍執行效率,能夠大幅節省能源成本。 ▲ NVIDIA DGX H100 不僅純性能提升,更具備更出色的能源效率 NVIDIA H100 不僅具備創新的硬體架構與達 900GB/s 的 NVLink ,也率先支援 PCIe 5.0 通道,提供更高速的 GPU 與 CPU 的溝通管道,相較前一代架構的加速系統,採用 NVIDIA H100 的系
2 年前
Intel專文介紹MRDIMM記憶體模組為資料中心帶來的效益,可大幅提升效能之外能相容既有生態系為賣點
電腦產業有許多的標準設計是已存在數十年的規格,雖然隨著技術變革或概念的改變如今來看已顯過時,但這些規格難以被取代的原因仍在於產業鏈難以動搖,記憶體模組設計就是其中一項例子,但考慮到既有標準產生的瓶頸,產業也會設法在進行最小變動下以既有設計延伸具相容性的標準;繼JEDEC公布DDR5 MRDIMM模組後,Intel也特別為MRDIMM撰寫一篇專文,介紹MRDIMM模組能為資料中心帶來的效益。 MRDIMM模組是一項在當前產業主流RDIMM記憶體模組設計進行創新的標準,透過於記憶體配置多列記憶體搭配多工控制器(或稱為MUX)進行多通道資料傳輸,使一組MRDIMM的記憶體的顆粒進行多通道傳輸,進而提
7 個月前
Intel 更新高效能運算產品未來藍圖,聚焦 Granite Rapids CPU 與 Falcon Shore GPU
Intel 在 2023 年 ISC 大會公布多項訊息,除了已經逐步出貨與上線的第 4 代 Xeon Scalable 與 Intel Data Center GPU Max 外, Intel 也藉此公布 HPC 與 AI 產品藍圖,並聚焦在著重記憶體頻寬的次世代 CPU 「 Granite Rapids 」與搭配的新一代記憶體插槽規範「 MCR DIMM 」,還有代號 Falcon Shore 的 HPC 與 AI 混合加速器;另外值得注意的是原本的 AI 加速產品線 Habana Gaudi 似乎將併入 Falcon Shores 。 ▲ Granite Rapids CPU 將藉助全新的
2 年前
Intel 最新 MLPerf 推論測試結果,顯示 Intel 產品組合具備完整的 AI 推論執行能力並在價格具有競爭力
截至 MLCommons AI 推出 MLPerf 推論測試以來, NVIDIA 產品組合始終具備最高的效能與最完整的測試項執行能力,不過 Intel 也逐步完善其產品組合,並在 2023 年也能夠與 NVIDIA 產品一樣具備完整的測試項執行能力,同時 Habana Gaudi2 也展現出比 NVIDIA 上一代 NVIDIA A100 更具優勢的效能;在 2023 年 9 月所公布的最新 MLPerf 成績當中, Intel 產品組合也成功執行新加入的 60 億個參數的 GPT-J 大型語言模型測試,Intel 強調包括 Habana Gaudi 、第 4 代 Xeon Scalable
1 年前

相關文章