快訊 AI 伺服器 liquid cooling 產業解決方案 液冷散熱 散熱模組 AI基礎建設 AI基礎設施 AI資料中心 Johnson Electric 德昌電機 最可靠的散熱合作夥伴!聚焦 AI 基礎設施硬體建設, Johnson Electric 德昌電機「探討 AI 時代的資料中心液冷散熱解決方案」論壇免費報名中 香港上市公司德昌電機(Johnson Electric)集團,即將於5月22日,在南方港會議中心舉辦「探討 AI 時代的資料中心液冷散熱解決方案」論壇,內容聚焦AI基礎設施硬體建設與液冷散熱解決方案發展趨勢。活動免費報名,名額有限,錯過不再。 隨著人工智慧(AI)的快速發展, AI 轉型已迫在眉睫,不分產業類型與規模,大大小小的企業都在針對導入 AI 進行廣泛的試驗;而即將舉辦的全球科技界盛事「COMPUTEX 2025」也以「AI Next」為主軸,聚焦智慧運算與機器人、次世代科技、未來移動三大主題,凸顯出 AI 技術與應用之於未來產業的必要性。 不過,在各項技術應用的背後,最關鍵的仍是 A 癮特務 19 個小時前
科技應用 OpenAI 雲端業務再度成為微軟重要營收來源 但資料中心相關基礎建設支出也大幅增加 微軟雲端業務再度成長,成為關鍵營收來源,但資料中心基礎設施支出也明顯增加。 微軟稍早公布其2025財年第三季財報結果,其中營收達700.7億美元,相比去年同期增加13%,而淨利則達258億美元,相比去年同期成長18%,主要營收源自Azure雲端服務部門,營收達424億美元,而包含Office 365、LinkedIn在內生產力與業務流程部門營收則達299.4億美元,至於包含Windows業務、搜尋廣告、設備及遊戲主機在內個人運算部門營收則是133.7億美元,而包含資料中心擴建與相關租賃的支出費用則達214億美元。 微軟表示將擴大投資資料中心等基礎建設,藉此支撐人工智慧工作負載,而微軟財務長Am Mash Yang 11 天前
科技應用 數據中心 國際能源署 國際能源署預估 2030 年資料中心電力消耗將因 AI 需求成長而倍增 國際能源署 (IEA) 發布預測報告指出,隨著人工智慧技術需求的快速增長,全球資料中心的電力消耗量預計將在 2030 年前增加超過一倍。 國際能源署 (IEA)官網釋出新《能源與人工智慧》 (Energy and AI)報告內容,針對當前人工智慧應用需求與全球能源使用情形作分析,預期在2030年時的數據中心用電量將比當前增加一倍以上,預期將對全球能源及二氧化碳排放淨零目標帶來全新挑戰。 報告顯示,全球數據中心在過去5年內佔全球電力消耗比例以每年12%比例增加,預期到2030年時將超過當前規模的一倍以上,將增加至每年消耗945 TWh (約9450億瓩時),幾乎高於當前日本每年總用電量規模。 而 Mash Yang 28 天前
科技應用 微軟 建造資料中心 微軟將延遲或放緩 800 億美元資料中心建設計畫 微軟可能將推遲或減緩其原定投入 800 億美元的大規模資料中心建設計畫,具體原因可能與供應鏈、成本考量或市場策略調整有關。 微軟在今年1月宣布將於2025財年結束前斥資800億美元建造資料中心,藉此推動人工智慧模型訓練、佈署應用,但消息人士指出目前此計畫已經延後,甚至在規模上已經進行減緩。 相關說法表示,微軟目前已經延後在印尼、英國、澳洲,以及美國境內伊利諾州、北達科他州與威斯康辛州境內的資料中心建造計畫,其中部分建造計畫可能已經取消,或是延後。 不過,微軟方面則回應表示仍計畫在2025財年結束規劃高達800億美元的建造資料中心支出預算。 而此計畫延後原因,可能與不久前川普政府提出全新關稅政策 Mash Yang 1 個月前
產業消息 nvidia LPDDR5X 記憶體模組 HBM3e LPCAMM2 SOCAMM 美光攜手NVIDIA開發基於LPDDR5X的SOCAMM資料中心記憶體模組,已導入NVIDIA GB300解決方案 雖然傳統LPDDR記憶體多採用直接焊接在系統PCB的方式,然而隨著包括可維護性、可升級性等需求,LPDDR在市場也產生模組化的需求,是故如筆電領域已有像是LPCAMM2等已被JEDEC標準化的新式記憶體模組;不過畢竟消費市場與伺服器、工作站的需求不同,美光宣布與NVIDIA共同合作,開發基於LPDDR5X記憶體的資料中心級記憶體模組SOCAMM,相對傳統DDR5記憶體模組尺寸更小、頻寬更高且能源效率更出色,當前SOCAMM已經導入NVIDIA最新一代的GB300 Grace Blackwell Ultra Superchip解決方案。 為AI資料中心規劃的小型、高性能、高可靠記憶體模組SOCA Chevelle.fu 1 個月前
產業消息 NVIDIA GTC nvidia 資料中心 工作站 行動工作站 推論加速器 大型語言模型 生成式AI Blackwell RTX PRO GTC 2025:NVIDIA針對工作站、伺服器推出NVIDIA Blackwell RTX PRO GPU,提供資料中心、桌上型與筆電三種組態、最高96GB GDDR7配置 繼AI加速運算與消費級GeForce產品後,NVIDIA於GTC 2025宣布推出NVIDIA Blackwell RTX PRO產品線,提供資料中心、桌上型與筆記型電腦三種型態的GPU,其中伺服器與桌上型GPU產品最大記憶體配置達96GB,筆電GPU最大達24GB,可提供加速運算、AI推論、光線追蹤與神經渲染等應用,附帶一提的是RTX PRO產品定位可視同過往的Tesla與Quadro產品線的整合,聚焦視覺化、模擬與科學運算三大應用類型。 NVIDIA Blackwell RTX PRO於資料中心GPU提供NVIDIA RTX PRO 6000 Blackwell伺服器版本,桌上型電腦GPU Chevelle.fu 1 個月前
產業消息 資料中心 GB200 Stargate Stargate AI投資計劃 首座資料中心配置逾6萬顆NVIDIA GB200超級晶片 美國總統川普1月與企業宣布在美國打造AI基礎設施Stargate計畫。彭博新聞今天報導,該計畫當中的德州資料中心將搭載6萬4000顆輝達(NVIDIA)的GB200超級晶片,首批1萬6000顆晶片將於夏天部署完成。 美國政府致力確保在人工智慧(AI)領域的領導地位,川普(Donald Trump)上任隔天即宣布,美國科技公司OpenAI、甲骨文(Oracle)與日本軟銀集團將合資5000億美元(約16兆3250億新台幣)打造Stargate計畫,以德州資料中心為起點。 彭博(Bloomberg News)今天引述知情人士消息指出,位於德州阿比林(Abilene)的資料中心預計在2026年底前, 中央社 2 個月前
產業消息 gpu xai 人工智慧模型 數據中心將 xAI 低調於美國亞特蘭大建資料中心 投資約 7 億美元 xAI 近期被揭露在美國亞特蘭大低調興建一座資料中心,投資金額達到約 7 億美元,顯示 xAI 在人工智慧領域的積極擴張。 在日前宣布推出新人工智慧模型Grok 3,更在後續開放所有人進行壓力測試之後,xAI目也悄悄在美國亞特蘭大建造數據中心,預期以此舒緩原本位於美國田納西州孟菲斯市 (Memphis)的大型數據中心運作負載。 依照xAI與亞特蘭大經濟發展機構Develop Fulton合作協議,此座位於亞特蘭大的新數據中心將佈署約12448組NVIDIA的GPU加速器,並且將由xAI與「X」共同營運,總計投入約7億美元資金,其中xAI出資約2.58億美元,「X」出資則約達4.42億美元,而亞 Mash Yang 2 個月前
產業消息 ARM Softbank Ampere Computing ARM 計劃推出首款自製資料中心處理器 ARM 預計今年夏季推出首款自製處理器,專為資料中心設計。 金融時報報導指稱,Arm最快將會在今年夏季推出其首款自製處理器,將用於資料中心運作,並且由台積電或其他晶圓代工廠生產,而首波應用此處理器產品的客戶將包含Meta在內業者。 會有這樣的傳聞,可能與日前傳出Softbank與Ampere Computing洽談收購的情形有關,可能有助於Arm以自製處理器佈局資料中心市場。 若Arm如傳聞推出用於資料中心運作的自製處理器,或許有可能成為接下來更多以Arm架構打造資料中心處理器的業者參考依據,亦即像是Google推出Pixel系列品牌手機,藉此作為市場多數Android平台手機的參考設計。 不 Mash Yang 2 個月前
科技應用 Anthropic Dario Amodei 資料中心創造 由人工智慧 Anthropic 執行長:人類將在資料中心創造「天才之國」 Anthropic 執行長表示,人類將很快在資料中心創造一個由人工智慧組成的「天才之國」,預示 AI 發展新時代的到來。 在巴黎人工智慧行動高峰會 (AI Action Summit)期間,Anthropic執行長Dario Amodei指出當前人工智慧技術發展遠超過預期,預期最快在2026年至2030年間就可能創造存在於資料中心內的「天才國度」 (Country of Geniuses in a Datacenter)。 就Dario Amodei的看法,認為當前的人工智慧技術發展腳步過快,人們可能很快就會在資料中心端創造「超級智慧」,但屆時可能仍未有足夠的安全防護,因此呼籲各國加速在人工智 Mash Yang 2 個月前