產業消息 nvidia gpu pcie a100 InfiniBand NVIDIA A100 NVIDIA Ampere NVIDIA 與合作夥伴宣布新式 HGX A100 系統,同步推出 NVIDIA A100 80GB PCIe GPU 、 NVIDIA NDR 400G InfiniBand 與 NVIDIA Magnum IO GPUDirect NVIDIA 宣布與業界合作夥伴推出新一代 HGX A100 系統,同時一併公布三項重大產品,包括記憶體容量加倍的 NVIDIA A100 80GB PCIe GPU ,NVIDIA NDR 400G InfiniBand 高速連接網路與 NVIDIA Magnum IO GPU Direct 軟體。包括 Atos 、 Dell 、 HPE 、聯想、微軟 Azure 、 NetApp 等皆為首波導入 NVIDIA 新一代 HGX A100 的合作夥伴。 NVIDIA A100 80GB PCIe GPU ▲繼去年推出 SXM 介面的 80GB 版本 NVIDIA A100 後,此次則是發表 P Chevelle.fu 3 年前
產業消息 nvidia gpu AMD EPYC NVIDIA A100 NVIDIA Ampere 美國 NERSC 啟用全球最快 AI 超級電腦 Perlmutter ,為探索科學而生、具 6,000 個 NVIDIA A100 GPU 、達 4 exaflops 算力 美國國家能源研究科學運算中心 NERSC 宣布啟用當前全球最高 AI 效能超級電腦 Perlmutter ,具備高達 6,000 個 NVIDIA A100 GPU ,可提供高達 4 exaflops 的混和精度 AI 算力,並提供超過 7,000 位研究人員於科學運算領域進行研究,並希望藉此推動天體物理學、氣候科學領域發展。 Perlmutter 基於慧與科技 HPE 的超算架構,採用 AMD 第三代 EPYC Milan CPU 搭配 NVIDIA A100 GPU 構成,共有 6,144 個 NVIDIA A100 Tensor Core GPU ,是目前為主全球最大的 A100 GPU Chevelle.fu 3 年前
產業消息 intel AI Xeon 資料中心 Ice Lake Xeon Scalable AMD EPYC NVIDIA A100 oneAPI Intel 在台攜合作夥伴發表 Ice Lake 第 3 代 Xeon Scalable 平台,首度整合 AI 加速架構使主流應用受益 Intel在今日與產業合作夥伴、包括台灣與海外 ICT 大廠、微軟、 VMWare 等共 32 家合作夥伴共同發表代號 Ice Lake 的第 3 代 Xeon Scalable 平台,除了核心數量的提升以外,更首度將 AI 加速架構導入 Xeon Scalable 平台,能對如雲端、企業、高效能運算、 5G 、邊際運算等廣泛應用結合 AI 提升更大的效益,相較前一代 xeon Scalable 平均效能提升達 1.46 倍,比起 5 年前系統更提升達 2.65 倍。 此次台灣 Intel 力邀以下夥伴共同出席,包括研揚、研華、其陽、明泰、安圖斯、永擎、華碩、冠信、艾訊、瑞祺電通、台灣思科系統 Chevelle.fu 4 年前
產業消息 NVIDIA GTC nvidia 超級電腦 DGX Station DGX NVIDIA A100 DGX SuperPOD NVIDIA 宣布全球首個雲原生超算系統 NEW DGX SuperPOD ,還有 320GB VRAM 的 AI 工作站 NVIDIA DGX Station A100 320G NVIDIA 今日宣布顛覆性的雲原生超算系統 NEW DGX SuperPOD ,除了將 GPU 升級到 80GB 的 A100 80GB 外,藉由 NVIDIA BlueField-2 提供基於 AI 的資料處理與高度安全防護,結合 NVIDIA BASE Command 管理平台,使超級電腦系統也能具備雲原生、多用戶化。 ▲透過 InfiniBand HDR 串接多套 DGX A100 系統構成 DGX SuperPOD ,再利用 NVIDIA BASE Command 提供雲端與虛擬化管理,使超級電腦也能雲端化 NEW DGX SuperPOD 由超過 20 套 NVIDIA DGX A Chevelle.fu 4 年前
產業消息 nvidia gpu 比特幣 挖礦 數位貨幣 乙太幣 NVIDIA A100 CMP HX 八卦傳聞指出 NVIDIA 可能會將 Ampere A100 轉化為地表最快礦卡,但可信度並不高 由於數位貨幣需求上升,自去年末開始不少高效能的新世代 GPU 被挪為礦卡使用,使得消費者更難取得原本供貨就吃緊的消費級 GPU ,而 GPU 晶片商一方面不敢忽視礦卡的商機,但又擔心惹惱消費者,除了 NVIDIA 已經明確開啟挖礦專用的 CMP HX 產品線外, AMD 也傳出將推出礦卡;而現在又有八卦指出 NVIDIA 可能會將 NVIDIA A100 轉化為礦卡產品線,同時將具備驚天動地的挖礦性能。 I mean we will meet a new CMP HX card based on A100. — kopite7kimi (@kopite7kimi) March 21 Chevelle.fu 4 年前
產業消息 nvidia AI vmware NVIDIA A100 vSphere NVIDIA 、 VMWare 攜手將 NVIDIA AI Enterprise 導入 vSphere ,協助企業打造具擴展與高度相容的企業 AI 與數據混合雲 NVIDIA 與虛擬化大廠 VMWare 在 GPU 技術邁入虛擬化世代後就有著緊密的合作關係,雙方在 2020 年末更進行深度合作,打造新一代數據中心硬體 BlueField-2 DPU ,而稍早再度宣布攜手,將 NVIDIA AI Enterprise 軟體套件納入 VMware vSphere 7 Update 2 ,並透過 NVIDIA 的認證計畫,為企業打造具 AI 與數據科學運算,並具備橫向擴展與相容的混合雲。 ▲最新版 vSphere 將 NVIDIA AI 工具整合並加以最佳化 藉由將 NVIDIA AI Enterprise 軟體套件納入 VMware vSphere 7 U Chevelle.fu 4 年前
產業消息 CPU ARM nvidia 超算 NVIDIA A100 Arm Neoverse Top500 日本理研超級電腦富岳再度維持 Top500 榜首, Arm 陣營亦陸續在超算領域擴大導入 在最新一季的超級電腦大會 SC20 活動所公佈的 Top500 榜單,在今年上半年以令人跌破眼鏡之姿,由非美國亦非中國、同時也不是 Intel 甚至不是 x86 架構的日本理研超級電腦富岳再次蟬聯榜首,同時亦有越來越多新世代超算系統宣布導入 Arm 架構,以富岳為首, Arm 架構超算系統似乎也有望顛覆長年由 Intel x86 架構壟斷的頂尖超算領域。 目前 Top500 前幾名的系統與上半年公佈大致相同,除了榜首的富岳外,第二名與第三名仍為美國能源局的 Summit 與 Sierra ,第四名則是中國的神威太湖之光, NVIDIA 自建的新一代 DGX POD 設計超級電腦" S Chevelle.fu 4 年前
產業消息 nvidia hpc AI 資料中心 DGX Station NVIDIA A100 NVIDIA 於 SC20 宣布 80GB 版 A100 GPU 、 DGX Station A100 以及 Mellanox 400G InfiniBand NVIDIA 在今年的 SC20 大會有三項主要宣示,其一是推出記憶體高達 80GB 的 NVIDIA A100 80GB 版 GPU ,其二是既有 DGX 系統也將隨之推出容量升級版,以及搭載 4 張 A100 80GB 版之 DGX Station A100 ,最後是 Mellanox 400G InfiniBand 。 搭載 NVIDIA A100 80GB 版的 DGX A100 、 DGX SA100 預計在本季開始出貨,而由系統商推出、搭載 4 或 8 個 NVIDIA A100 80GB 的系統則將在 2021 年上半年出貨; Mellanox 400G InfiniBand 預 Chevelle.fu 4 年前
產業消息 nvidia gpu AI nvidia tesla 加速器 Jetson Xavier NVIDIA A100 NVIDIA Ampere 藉由 NVIDIA A100 GPU 與 Jetson AGX Xavier , NVIDIA 於 AI 推論測試 MLPerf 再度突破自我紀錄 不同於行動裝置的 AI 測試還未有公認的測試基準,資料中心與超級電腦的 AI 性能在由多家業界領導廠商共同倡議下提供具公正性的測試基準 MLPerf ,包括 Arm,百度,Facebook,Google,哈佛,Intel,聯想,微軟,史丹佛大學,多倫多大學和 NVIDIA 皆是此測試標準的倡議者;而 NVIDIA 今年在 A100 GPU 與 Jetson AGX Xavier 推出後,於 MLPerf 測試再度突破先前紀錄,分別奪下資料中心與邊際運算的 AI 推論測試領先成績。 MLPerf 也持續因應市場需求持續增加與調整測試項目,此次也因應應用需求導入四項新測試,包括自然語言處理、醫學影 Chevelle.fu 4 年前
產業消息 NVIDIA GTC nvidia AI jetson nano EGX NVIDIA A100 GTC 2020 : NVIDIA 針對邊際運算宣布 EGX AI 平台納入 Ampere 與 DPU ,同時也推出僅 59 美金的 Jetson Nano 2GB 開發套件 NVIDIA 在 10 月 GTC 針對邊際 AI 與運算宣布兩項宣布,包括擴大針對邊際運算基礎設施的 NVIDIA EGX AI 平台計畫,將 Ampere GPU 與 DPU 納入其中,以及僅 59 美金的 Jetson Nano 2GB 開發套件,分別鎖定企業轉型結合邊際運算的混合雲趨勢,以及針對邊際 AI 的開發與機器人提供更平價的開發套件。 ▲ EGX AI 是作為企業部屬基於 GPU 之邊際 AI 運算的伺服器架構 基於即時性、安全性等因素,部屬邊際運算與邊際 AI 伺服器是企業雲架構的新趨勢,為了為邊際運算提供統一化的 GPU 加速伺服器, NVIDIA 宣布 NVIDIA EG Chevelle.fu 4 年前