科技應用 nvidia 超級電腦 a100 Azure 人工智慧 H100 GPU NVIDIA 將在微軟 Azure 雲端平台 部署 A100 及 H100 GPU 建構「超級電腦」 等級運算能力 目前在Azure雲端平台的執行個體中,將採用NVIDIA A100 GPU,搭配傳輸速率可達200Gbps的InfiniBand網路技術,後續也會增加NVIDIA H100 GPU,以及傳輸速率可達400Gbps的InfiniBand網路技術。 NVIDIA宣布與微軟合作,將在微軟旗下Azure雲端平台加入數以萬計的NVIDIA A100及H100 GPU加速元件,藉此在雲端平台建構超級電腦運算能力。 在此項合作中,將使Azure成為第一個搭載NVIDIA完整人工智慧加速運算解決方案的公有雲,透過A100、H100 GPU加速能力、InfiniBand網路串聯技術,以及NVIDIA旗下人工智慧 Mash Yang 4 個月前
產業消息 nvidia hpc AI NVIDIA Hopper NVIDIA A100 NVIDIA Ampere MLPerf NVIDIA Hopper H100 GPU 樹立 AI 訓練新指標, NVIDIA A100 借助軟體更新效能持續增長 NVIDIA 在 2022 年 9 月首度公開新一代代號 Hopper 的 NVIDIA H100 Tensor GPU 在 MLPerf 推論基準測試的效能,刷新當時的 MLPerf 效能紀錄;如今 NVDIA 再次公布 NVIDIA H100 在產業組織的人工智慧訓練最新測試成績,創下處理企業 AI 負載的新紀錄,大幅領先競爭對手產品,顯見 NVIDIA H100 是當前對建構與部署最先進 AI 並追求極致效能的用戶的最佳選擇;然而縱使是問世兩年的 NVDIA A100 ,借助持續的軟體升級, NVIDIA A100 Tensor GPU 仍打破去年所公布的成績。 ▲即便 NVIDIA H Chevelle.fu 4 個月前
科技應用 nvidia gpu A800 GPU NVIDIA 將推出 A100 GPU 的中國特規版「A800 GPU」以符合美國出口中國法規 中國市場為NVIDIA重要發展市場,包含自駕車、機器人、人工智慧等應用都有不少發展資源來自中國境內,使得中國成為NVIDIA難以放棄市場,因此也導致NVIDIA設法在符合美國政府限制範圍內,透過針對中國市場需求打造的A800 GPU,填補目前A100 GPU無法在中國市場銷售的空缺。 路透新聞報導指稱,NVIDIA將因應美國政府針對中國實施半導體技術出口管制,準備針對中國市場需求推出型號為A800的GPU,藉此取代既有的A100 GPU。 而NVIDIA在後續回應證實此項產品設計,並且計畫在今年第三季投產,將成為美國禁令後銷往中國市場的替代品,並且符合美國政府在出口管制要求。 不過,硬體規格與 Mash Yang 4 個月前
產業消息 nvidia NVIDIA Hopper NVIDIA A100 Jetson AGX Orin NVIDIA H100 NVIDIA H100 以較 NVIDIA A100 達 4.5 倍效能創下 MLPerf 世界紀錄, Jetson AGX Orin 仍為邊際運算之霸 於 2020 年問世的 NVIDIA A100 仍是包括 Intel 與 AMD 在內的加速運算最大假想敵,皆作為 Intel 與 AMD 公布新一代加速產品時的首要目標,然而 NVIDIA 在今年 GTC 公布新一代 Hopper 架構的 NVIDIA H100 Tensor Core GPU ,也令人好奇 NVIDIA H100 在實際情境是否如同 NVIDIA 所敘述般的出色; NVIDIA 今日首度公布 NVIDIA H100 在人工智慧測試基準 MLPefr 的成績,除了再度創下世界紀錄外,更較 NVIDIA A100 高出 4.5 倍性能。 NVIDIA H100 預計在 2022 Chevelle.fu 6 個月前
科技應用 intel Ponte Vecchio 伺服器處理器 Intel 展示「Ponte Vecchio」伺服器 GPU 建構平台算力 比 NVIDIA A100 高出 2. 5倍效能 在Hot Chips 34高效能運算年度技術大會中,Intel也預告接下來即將推出的「Meteor Lake」、「Arrow Lake」與「Lunar Lake」的Core系列處理器,將以Foveros互聯技術串接CPU、GPU、I/O控制元件,以及各類SoC元件,並且藉由UCIe (Universal Chiplet Interconnect Express)規範加速各元件互聯運算效率,讓不同製程技術設計運算元件可以封裝在相同處理器內協同運作,藉此提升整體運算效能。 Intel在此次Hot Chips 34高效能運算年度技術大會中,說明代號「Sapphire Rapids」的Xeon伺服器處 Mash Yang 7 個月前
產業消息 COMPUTEX台北國際電腦展 nvidia hpc 資料中心 水冷 Ampere Hopper A100 PCIe H100 PCIe Computex 2022 : NVIDIA 為因應伺服器產業高效能與碳中和趨勢,將推出水冷散熱的 NVIDIA A100 PCIe 與 NVIDIA H100 PCIe 加速卡 當前越來越多 PC 與運算產品使用液態冷卻技術,藉此因應效能大幅提升的高發熱硬體架構,目前液冷技術在伺服器、超算領域也逐漸受到重視,液冷將是資料中心實現碳中和的重要關鍵,除了傳統計算裝置的瓦特效率外,資料中心的散熱也是造成碳排放增加的關鍵因素。NVIDIA 有鑑於市場需求,宣布將推出採用液冷架構的 GPU 加速產品,將率先推出液冷版 A100 PCIe 加速系統與加速卡,而後再推出新一代的 H100 PCIe A100 加速系統與加速卡。 ▲ A100 PCIe 與 H100 PCIe 皆將提供液冷版本 NVIDIA 強調,當前採用風冷設計的 GPU 異構加速 HPC 系統已經相較傳統 CPU Chevelle.fu 10 個月前
產業消息 intel AI 深度學習 機器視覺 推論加速器 Habana Gaudi2 自然語言 Intel Vision Intel Vision 2022 : Intel 推出 Habana Gaudi2 與 Greco AI 處理器, Gaudi2 訓練性能高於 NVIDIA A100 兩倍 Intel 在 Intel Vision 大會宣布旗下 AI 深度學習處理器團隊 Habana Labs 推出第二代 AI 深度學習處理器 Habana Gaudi2 與 Habana Greco ,兩款產品皆基於 7nm 製程(聽起來像是委託台積電生產?), Habana Gaudi2 是鎖定訓練應用,號稱在 ResNet-50 機器視覺模型和 BERT 自然語言處理模型的訓練吞吐量高於 NVIDIA A100 80GB 兩倍,而 Habana Greco 則是針對推論所規劃的架構。 Intel 開放提供既有 Habana 客戶使用 Gaudi2 處理器,同時與 Supermicro 合作, Chevelle.fu 10 個月前
產業消息 nvidia AI 高通 加速器 NVIDIA A100 Jetson AGX Orin NVIDIA 借助軟體調整使 NVIDIA A100 在一年內 AI 性能提升 5 成,全新 Jet AGX Orin 奪下邊際推論性能之冠 雖然 NVIDIA 在 GTC 大會公布全新一代加速器 NVIDIA H100 ,性能聲稱比起目前 NVIDIA A100 有飛躍性的提升,但這不代表 NVIDIA 推出新硬體後就不再服務舊世代架構的用戶, NVIDIA 今日公布全新的 MLPerf v2.0 推論性能結果,借助在軟體不斷的革新,相較去年公布的結果,使 NVIDIA A100 的效能提升達 50% ;此外也隨著新一代嵌入式超算平台 Jetson AGX Orin 的問世, Jetson AGX Orin 借助全新硬體架構奪下邊際運算系統的效能王者頭銜。 ▲借助軟體持續精進, NVIDIA A100 相較去年表現最高提升達 50 Chevelle.fu 11 個月前
產業消息 nvidia gpu AI Facebook meta NVIDIA A100 Meta 與 NVIDIA 合作打造最大 NVIDIA A100 AI 超算系統 RSC , 2022 年底將擴充到 16,000 個 GPU Facebook 母公司 Meta 宣布繼 2017 年後再度採用 NVIDIA GPU 技術打造第二世代 AI 研究基礎設施 RSC ( Research SuperCluster ),目前已經完成第一階段的架設,採用 760 套 NVIDIA DGX A100 節點、共 6,080 個 A100 GPU ,並預計在 2022 年末第二階段完工後一舉擴充到 16,000 個 GPU ,推估性能達 5 exaflops 混合精度 AI 性能,規模勝於微軟 AI 研究室的 10,000 個 GPU ,屆時 RSC 將成為地表最大型的 A100 系統。 RSC 的目的是作為 Meta 新一代 AI Chevelle.fu 1 年前
產業消息 ARM nvidia gpu x86 NVIDIA A100 NVIDIA Grace Ampere Altra NVIDIA 首度公開搭配 NVIDIA A100 搭配 Arm 架構伺服器效能,展現不遜於搭配 x86 處理器的出色表現 NVIDIA 首度公開 NVIDIA A100 搭配 Arm 架構 CPU 的效能表現,在最新 MLPerf 的基準測試結果證實無論是搭配 x86 或是 Arm 架構皆有出色的水準,證實 Arm 架構伺服器不僅有出色的能源效率,在搭配 NVIDIA A100 GPU 的異構運算同樣有出色的性能,這也是 MLPerf 資料中心類別首度於 Arm 架構系統進行測試,同時 NVIDIA 也連續三度在 MLCommons 推論測試基準創下效能與能源效率紀錄, NVIDIA 亦為唯一一家自第一輪起至今不間段公布 MLPerf 成績的公司。 ▲ NVIDIA 證實在相近配置之下, Arm 架構表現並不遜於 Chevelle.fu 1 年前