產業消息 nvidia gpu AI Facebook meta NVIDIA A100 Meta 與 NVIDIA 合作打造最大 NVIDIA A100 AI 超算系統 RSC , 2022 年底將擴充到 16,000 個 GPU Facebook 母公司 Meta 宣布繼 2017 年後再度採用 NVIDIA GPU 技術打造第二世代 AI 研究基礎設施 RSC ( Research SuperCluster ),目前已經完成第一階段的架設,採用 760 套 NVIDIA DGX A100 節點、共 6,080 個 A100 GPU ,並預計在 2022 年末第二階段完工後一舉擴充到 16,000 個 GPU ,推估性能達 5 exaflops 混合精度 AI 性能,規模勝於微軟 AI 研究室的 10,000 個 GPU ,屆時 RSC 將成為地表最大型的 A100 系統。 RSC 的目的是作為 Meta 新一代 AI Chevelle.fu 3 年前
產業消息 ARM nvidia gpu x86 NVIDIA A100 NVIDIA Grace Ampere Altra NVIDIA 首度公開搭配 NVIDIA A100 搭配 Arm 架構伺服器效能,展現不遜於搭配 x86 處理器的出色表現 NVIDIA 首度公開 NVIDIA A100 搭配 Arm 架構 CPU 的效能表現,在最新 MLPerf 的基準測試結果證實無論是搭配 x86 或是 Arm 架構皆有出色的水準,證實 Arm 架構伺服器不僅有出色的能源效率,在搭配 NVIDIA A100 GPU 的異構運算同樣有出色的性能,這也是 MLPerf 資料中心類別首度於 Arm 架構系統進行測試,同時 NVIDIA 也連續三度在 MLCommons 推論測試基準創下效能與能源效率紀錄, NVIDIA 亦為唯一一家自第一輪起至今不間段公布 MLPerf 成績的公司。 ▲ NVIDIA 證實在相近配置之下, Arm 架構表現並不遜於 Chevelle.fu 3 年前
產業消息 intel gpu hpc 加速器 Ponte Vecchio Xe Core Intel 加速器 GPU 產品 Ponte Vecchio 具備 45TFLOPS 的 FP32 效能,足足比 NVIDIA A100 高出一倍 作為 Intel 異構運算戰略的重量級產品之一,莫過於針對 HPC 所開發的 Ponte Vecchio ,這是 Intel 第一款針對超算領域開發的 GPU 加速器產品,將扮演 Intel 在超算領域能否擊敗 NVIDIA GPU 的重要關鍵; Intel 也喊出 Ponte Vecchio 將比 NVIDIA A100 高出一倍的性能, FP32 將達到驚人的 45TFLOPS 。 Ponte Vecchio 預計 2022 年正式推出,目前已經開始提供小量樣品,同時 Ponte Vecchio 也將成為即將啟用的美國 Aurora 超算系統的基礎 ▲ Ponte Vecchio 的 Xe Chevelle.fu 3 年前
產業消息 nvidia automotive 自動駕駛 神經網路 Tesla 先進輔助駕駛 Tesla 自有超算系統 AUTOMOTIVE 搭載達 5,760 個 NVIDIA A100 GPU 與具 1.8 exaflops 算力,專為自動駕駛訓練而生 NVIDIA 曾為 Tesla 初期自動駕駛系統核心的供應者,不過隨著 Tesla 自行開案設計專為自動駕駛推論的晶片後與 NVIDIA 的關係變得微妙,然而無論如何為了建構良好的自動駕駛 AI 模型,還是需要有一套高效率的 AI 超算系統,於是 Tesla 又再度使用 NVIDIA 的硬體架構作為自動駕駛技術與輔助駕駛技術之深度神經網路模型訓練的超級電腦 AUTOMOTIVE 的關鍵元件。 Tesla 的 AUTOMOTIVE 共具備 720 個節點、每個節點具備 8 張 NVIDIA A100 Tensor Core GPU ,共計有 5,760 個 GPU ,並提供達 1.8 exafl Chevelle.fu 3 年前
產業消息 nvidia gpu pcie a100 InfiniBand NVIDIA A100 NVIDIA Ampere NVIDIA 與合作夥伴宣布新式 HGX A100 系統,同步推出 NVIDIA A100 80GB PCIe GPU 、 NVIDIA NDR 400G InfiniBand 與 NVIDIA Magnum IO GPUDirect NVIDIA 宣布與業界合作夥伴推出新一代 HGX A100 系統,同時一併公布三項重大產品,包括記憶體容量加倍的 NVIDIA A100 80GB PCIe GPU ,NVIDIA NDR 400G InfiniBand 高速連接網路與 NVIDIA Magnum IO GPU Direct 軟體。包括 Atos 、 Dell 、 HPE 、聯想、微軟 Azure 、 NetApp 等皆為首波導入 NVIDIA 新一代 HGX A100 的合作夥伴。 NVIDIA A100 80GB PCIe GPU ▲繼去年推出 SXM 介面的 80GB 版本 NVIDIA A100 後,此次則是發表 P Chevelle.fu 3 年前
產業消息 CPU AMD EPYC Milan 超算系統 加速運算 EPYC 7003 Perlmutter AMD 宣布美國能源研究中心超算系統 Perlmutter 採用 AMD EPYC 7003 處理器,第二期將擴增沒有 NVIDIA A100 的純 CPU 節點 在上週 NVIDIA 宣布美國能源研究中心 NERSC 的全球最高 AI 效能超算系統 Perlmutter 將由超過 6,000 個 NVIDIA A100 Tensor Core CPU 構成,稍早 AMD 也公布 Perlmutter 的 CPU 為 AMD EPYC 7003 " Milan "系列的 EPYC 7763 ,當前 Perlmutter 第一階段由 1,536 個節點構成,每個節點具備 1 個 EPYC 7763 與 4 個透過 NVLink 連接的 A100 GPU 。 ▲除了第一期採用加速運算的 EPYC CPU + A100GPU 節點外, AM Chevelle.fu 3 年前
產業消息 nvidia gpu AMD EPYC NVIDIA A100 NVIDIA Ampere 美國 NERSC 啟用全球最快 AI 超級電腦 Perlmutter ,為探索科學而生、具 6,000 個 NVIDIA A100 GPU 、達 4 exaflops 算力 美國國家能源研究科學運算中心 NERSC 宣布啟用當前全球最高 AI 效能超級電腦 Perlmutter ,具備高達 6,000 個 NVIDIA A100 GPU ,可提供高達 4 exaflops 的混和精度 AI 算力,並提供超過 7,000 位研究人員於科學運算領域進行研究,並希望藉此推動天體物理學、氣候科學領域發展。 Perlmutter 基於慧與科技 HPE 的超算架構,採用 AMD 第三代 EPYC Milan CPU 搭配 NVIDIA A100 GPU 構成,共有 6,144 個 NVIDIA A100 Tensor Core GPU ,是目前為主全球最大的 A100 GPU Chevelle.fu 3 年前
產業消息 NVIDIA GTC ARM nvidia hpc marvell NVIDIA GPU aws Ampere AWS Gravition NVIDIA 與 AWS 推出可原生執行 Android 環境的 Arm 架構 Amazon EC2 服務,並宣布採用 Ampere Altra CPU 與 NVIDIA A100 的 HPC 開發套件 Arm 在此次 GTC 除了宣布採用 Arm 架構的自研超算處理器 Grace 以外,還有宣布兩項與 Arm 架構相關的重要進展,第一項是與亞馬遜旗下 AWS 服務合作,以基於 Arm CPU 架構的 AWS Graviton2 結合 NVIDIA GPU 的 Amazon EC2 實例提供雲串流的服務,鎖定遊戲內容開發者需求,使其透過雲端環境進行 Android 遊戲的開發。 Amazon EC2 將使得開發者能利用 AWS 在遠端以與手機相同的 Arm CPU 架構原生執行 Android 內容的開發與測試,並透過 NVIDIA GPU 加速內容處理與編碼,在串流到開發者手中的設備,開發者 Chevelle.fu 4 年前
產業消息 NVIDIA GTC nvidia 超級電腦 DGX Station DGX NVIDIA A100 DGX SuperPOD NVIDIA 宣布全球首個雲原生超算系統 NEW DGX SuperPOD ,還有 320GB VRAM 的 AI 工作站 NVIDIA DGX Station A100 320G NVIDIA 今日宣布顛覆性的雲原生超算系統 NEW DGX SuperPOD ,除了將 GPU 升級到 80GB 的 A100 80GB 外,藉由 NVIDIA BlueField-2 提供基於 AI 的資料處理與高度安全防護,結合 NVIDIA BASE Command 管理平台,使超級電腦系統也能具備雲原生、多用戶化。 ▲透過 InfiniBand HDR 串接多套 DGX A100 系統構成 DGX SuperPOD ,再利用 NVIDIA BASE Command 提供雲端與虛擬化管理,使超級電腦也能雲端化 NEW DGX SuperPOD 由超過 20 套 NVIDIA DGX A Chevelle.fu 4 年前
產業消息 intel nvidia Ice Lake Xeon Scalable pcie 4.0 NVIDIA Ampere NVIDIA 恭賀 Intel 推出第 3 代 Xeon Scalable ,因為 Ice Lake 終於提供可發揮 NVIDIA A100 潛力的 PCIe 4.0 Intel 在昨天深夜宣布代號" Ice Lake "的第 3 代 Xeon Scalable 平台發表,而 NVIDIA 也旋即在不久宣布 Ice Lake 平台將可進一步發揮 NVIDIA GPU 加速技術的潛力,其中一項關鍵即是 Ice Lake 終於升級到 AMD 在第 2 代 EPYC " ROME "就導入的 PCIe 4.0 技術。 NVIDIA 自 Ampere 架構起開始導入 PCIe 4.0 的支援,在超算加速、 AI 、專業影像等領域也提供基於 Ampere 的 NVIDIA A100 、 NVIDIA A40 與 NVIDIA R Chevelle.fu 4 年前