最新消息

GTC 2024:群聯攜手技嘉、華碩、MAINGEAR、台灣大哥大、聯發科建立aiDAPTIV+技術合作夥伴,提供地端客製化AI訓練、將SSD化為DRAM增加模型可訓練規模
群聯電子PHISON於NVIDIA GTC 2024大會宣布與技嘉、華碩、MAINGEAR、台灣大哥大、聯發科攜手建立aiDAPTIV+技術合作夥伴關係,aiDAPTIV+是整合硬體與軟體的AI模型微調訓練解決方案,並透過群聯於高速儲存的專精,透過低成本的SSD結合AI加速器擴增DRAM容量,使企業可在不大幅增加成本提升可訓練模型的規模,企業在進行AI模型微調的過程又可保有資料安全與不外流,確保企業客製化AI模型的安全性。 當前AI預訓練是客製化AI模型的重要基礎,而aiDAPTIV+則是在預訓練的模型為基礎化為可理解特定領域的專業工具,諸如法律、會計、醫療、工程等,提供該領域的精確服務。透過
1 年前
GTC 2024:NVIDIA公布6G研究平台,Ansys、是德科技、三星、軟銀等成採用先驅
通訊技術以每10年為一個世代,隨著5G開始普及,許多通訊產業先驅者也率先投入6G的研究;NVIDIA在GTC 2024宣布NVIDIA 6G研究平台,包括基於NVIDIA Aerial Omniverse數位孿生技術、Aerial CUDA加速RAN與Sionna神經無線電框架,為自動駕駛、智慧空間、延展實境、沉浸是教育體驗、協作機器人等未來超智慧應用鋪路。 包括Ansys、蘇黎世聯邦理工學院、富士通、是德科技、諾基亞、美國東北大學、羅德史瓦茲、三星、軟銀和Viavi都是其首批採用組織和生態系統合作夥伴。NVIDIA也開放6G研究人員進行註冊:NVIDIA 6G開發者計畫 NVIDIA 6G研
1 年前
GTC 2024:台積電、新思科技將NVIDIA運算式微影平台cuLitho投產,使半導體運算密集工作加速60倍
NVIDIA宣布台積公司(TSMC)與新思科技(Synopsys)將NVIDIA的NVIDIA cuLitho運算式微影平台投入生產,透過GPU加速運算取代CPU,將能使半導體產業運算密集型工作負載加速40至60倍,加速晶片製造,而NVIDIA Blackwell GPU也將成為受益者。NVIDIA也推出全新生成式AI演算法增強cuLitho,相較當前基於CPU的方式顯著改善半導體製造流程。 cuLitho運算式微影技術是於2023年宣布,由NVIDIA與台積電、新思科技合作的技術,透過GPU加速運算的cuLitho應用於半導體微縮,相較以往透過CPU執行微影運算更具效率。 傳統利用CPU進行
1 年前
GTC 2024:SAP攜手NVIDIA加速企業應用程式導入生成式AI,SAP雲端解決方案結合NVIDIA AI Foundry服務NVIDIA NIM為客戶打造客製化大型語言模型
SAP於NVIDIA GTC宣布雙方擴大合作關係,旨在提高企業客戶利用SAP雲端解決方案與應用程式結合資料與生成式AI進行數位轉型的能力;雙方正合作建置SAP BusinessAI,包括SAP Joule copilot與跨SAP雲端解決方案及應用程式組合中建構可擴展與特定業務的生成式AI,同時將促進相關、可靠與負責任的商業AI,並提供對廣泛大型語言模型LLM的即時存取。 SAP與NVIDIA計畫於2024年底前將NVIDIA AI Foundry服務NVIDIA NIM推論微服務整合至SAP的雲端解決方案。 SAP表示正在著手將生成式AI直接建構至能為全球企業提供動力的應用程式,作為該計畫的
1 年前
GTC 2024:NVIDIA推出生成式AI微服務為CUDA GPU的裝置建立與部署生成式AI Copilot,全新NIM推論微服務大幅縮減推論部署時間
NVIDIA在GTC宣布數十種生成式AI微服務,包括20多種用於醫療保健領域的NIM與CUDA-X微服務;NIM推論微服務適用預先訓練AI模型,NVIDIA CUDA-X微服務現在與可使用加速軟體開發套件、函式庫及工具;透過這些AI微服務,開發人員能在裝有NVIDA GPU的機器建立與部署生成式AICopilot,保有建立與部署客製化應用程式的同時,可保留完全持有與控制自有智慧財產權的權利。 NVIDIA同步宣布全新AI入口網站ai.nvidia.com,開發人員可在ai.nvidia.com申請免費試用NVIDIA微服務;企業可以利用在NVIDIA認證系統及主要雲端服務市場上運行的NVIDI
1 年前
GTC 2024:NVIDIA推出雲端量子電腦模擬微服務NVIDIA Quantum Cloud,開發者能在雲環境建立與測試量子演算法與應用
NVIDIA在GTC 2024宣布推出量子電腦模擬微服務NVIDIA Quantum Cloud,以3/4部署量子處理單元的公司使用的NVIDIA開源CUDA-Q量子運算平台為基礎,開發者得以透過雲端環境建立與測試新的量子演算法與應用,並包括用於混合量子經典程式編寫工具的模擬器。 如Google Cloud 、Microsoft Azure和Oracle Cloud Infrastructure等雲端服務供應商,以及許多量子公司,例如IonQ、IQM Quantum Computers、OQC、ORCA Computers、qBraid 和 Quantinuum等正將Quantum Cloud
1 年前
GTC 2024:日本ABCI-Q超級電腦採用NVIDIA Hopper架構與NVIDIA CUDA-Q探索量子研究,為國家級量子運算鋪路
NVIDIA的GPU與CUDA-Q是作為現階段原生量子處理器高價且運行條件嚴苛的替代方案,日本為了推動國家級量子運算技術,為企業與社會創造新機會、並自量子技術於AI、能源與生物學研究受益,由富士通於日本產業技術總合研究所(AIST)量子人工技術全球商業研究開發中心(G-QuAT)打造基於NVIDIA H100 Tensor Core GPU的ABCI-Q超級電腦,結合CUDA-Q為日本跨產業研究提供高品質的量子模擬。 ABCI-Q預計2025年初佈署,設計理念用於將與未來的量子硬體整合 ▲ABCI-Q由超過2,000個NVIDIA構成,並透過CUDA-Q整合 ABCI-Q具備超過500個節點與
1 年前
GTC 2024:基於Blackwell GPU的DGX SuperPOD為兆級參數規模生成式AI而生,結合網路、軟體與儲存可擴展到數萬個GB200 Superchip
NVIDIA於GTC 2024公布Blackwell架構,也同步宣布基於Blackwell GPU的新一代NVIDIA DGX SuperPOD;不同過往DGX SuperPod採用x86架構與風冷散熱,基於Blackwell架構新DGX SuperPod採用基於Arm Neoverse的Grace CPU與Blackwell GPU構成的NVIDIA GB200 Superchip,並採更高效的液冷散熱架構,透過NVLink可連接至最多576個Blackwell GPU,借助NVIDIA網路、NVIDIA全端AI軟體與儲存最高可擴展數萬個GB200 Superchip,可因應兆級規模的AI超
1 年前
GTC 2024:NVIDIA推出為兆級參數GPU運算與AI基礎設施最佳化的Quantum-X800 InfiniBand與Spectrum-X800乙太網路交換機
NVIDA公布全新GPU架構Blackwell與NVIDA B200 GPU、NVIDIA GB200 Superchip,於此同時,為了因應兆級參數GPU運算與AI基礎設施需求,NVIDA也宣布兩款新型交換機產品,分別為Quantum-X800 InfiniBand與Spectrum-X800乙太網路,提供最高效能AI基礎設施與適合每個資料中心的AI最佳化網路使用,具備最高800Gb/s的端到端吞吐量,同時大幅提升網路內運算性能。 包括微軟Azure、Oracle Cloud Infrastruture、Corewave等宣布將為早期採用者。Aivres、DDN、戴爾科技集團、Eviden、
1 年前
GTC 2024:NVIDIA公布雙晶粒連接的Blackwell架構NVIDIA B200 Tensor Core GPU,GB200 Superchip由1CPU與雙GPU構成
NVIDIA在GTC 2024的重頭戲即是宣布以首位美國科學院黑人學者與研究賽局理論與統計學數學家David Harold Blackwell為名的Blackwell GPU架構,以及基於Blackwell架構的NVIDIA B200 Tensor Core GPU;Blackwell採用六項為加速運算而生的革命性技術,首度採用雙晶粒互連構成一個2,080億電晶體的GPU,同時全新的GB200 Superchip(Grace Blackwell超級晶片)更透過NVLink-C2C將2個NVIDIA B200 Tensor Core GPU與1個Grace CPU連接。 基於Blackwell架
1 年前

熱門文章