美光推出PCIe Gen 5通道的Micron 9550 NVMe資料中心SSD,強調為自有控制器、NAND、DRAM與韌體
美光宣布針對資料中心市場推出Micron 9550 NVMe SSD,鎖定AI工作負載需求並兼具能源效率;Micron 9550 NVMe SSD為PCIe Gen 5通道,搭載美光自有控制器、NAND、DRAM與韌體,可發揮同級最佳效能,並與出色的連續與隨機讀寫性能提供如大型語言模型(LLM)所需的高連續讀取性能,以及圖像神經網路(GNN)所需的高速隨機讀取性能,同時也針對AMD與Intel資料中心平台具備出色的相容性。 Micron 9550 NVMe SSD提供自3.2TB至30.72TB等容量,以及U.2、E1.S或E3.S等封裝,目前已經進行送樣。 ▲美光Micron 9550為美光
11 個月前
技嘉推出針對企業地端AI訓練與最佳化的AI TOP應用程式,強調使用者友善的可視化設計
隨著生成式AI掀起新一波AI技術熱,技嘉宣布推出獨家AI TOP應用程式,為企業提供地端AI訓練與最佳化,強調重新設計工作流程,並採用使用者友善的操作介面與即時進度監控,使AI初學者與專家都可將開源大型語言模型在地端進行重新訓練與最佳化,提供企業AI落地與私有化。 技嘉AI TOP應用程式已開放下載:AI TOP ▲技嘉AI TOP可支援Hugging Face上的70多個開源LLM,供用戶在地端進行客製化訓練 技嘉強調AI TOP是一套針對地端模型AI最佳化的解決方式,結合技嘉AI TOP硬體進行模型再訓練,可解決顯示卡VRAM在訓練過程記憶體不足等問題,並支援技嘉的GeForce RTX
11 個月前
Ubitus宣布支援繁中大型語言模型Project TAME,同時在訓練過程貢獻算力與遊戲領域訓練資料
雲端串流服務公司日商Ubitus以遊戲串流技術發跡,近期也積極發展AI相關服務;隨著由台灣多家產、官、學共同發表針對台灣語系與支援專業知識的Project TAME繁中大型語言推出,Ubitus除了貢獻遊戲領域的訓練資料,並宣布提供基於Project TAME的推論服務,並透過繁中LLM Arena網站進行模型推論測試與演進。 繁中LLM Arena網站:LLM Arena ▲Project TAME是首個支援專業領域的開源大型語言模型計畫 Ubitus於2023年即攜手台大資工系合作開發台灣版大型語言模型,近日亦參與台灣首款達70B參數的繁中混合專家模型Project TAME計畫,不僅在訓
1 年前
Google Translate藉大型語言模型新增110種語言翻譯,並宣布支援全球1,000種常用語言計畫
Google Translate是相當實用的翻譯服務,不過全世界的語言相當多,有些語言礙於樣本因素難以建立可用的翻譯技術,但隨著AI的技術演進,Google Translate也在AI的加持下可支援更多元的語言;Google宣布將在近期為Google Translate新增達110種語言,約為全球8%人口所使用的語系,是歷年一口氣新增數量最多的一次,其中有1/4的語言為非洲語,此外也包括樣本容易與中文混淆的粵語;此外Google也宣布支援1,000種語言的計畫,以支援1,000種常用語言作為願景。 Google Translate將在近期上線110種語言翻譯服務 ▲透過大型語言模型得以透過相近
1 年前
中央健保屬攜手Google開發糖尿病預測與管理AI模型,先自第二類糖尿病開始、後續擴大至三高預測
衛生福利部中央健康保健署在Google Cloud所舉辦的Google Cloud Summit Taipei大會宣布攜手Google Cloud、Google Health共同開發醫療保健AI模型,並聚焦在台灣最常見的慢性疾病、也就是糖尿病,同時所有的訓練資料與處理除經過去識別化處理,也將在存放在Google位於彰化縣的資料中心;此項計畫初步將以其中最常見且醫療成本高昂的第二類糖尿病為優先,後續擴大道改善高血壓、高血糖與高膽固醇等三高問題。 此次健保署與Google的合作是台灣發展精準醫療國家策略的一部分,且糖尿病影響台灣達13%成年人口,且每4位台灣人就有1位患有高血壓,慢性疾病也因此對醫
1 年前
NVIDIA H100最新MLPerf訓練測試基準較2023年以3.2倍GPU規模實現3倍以上的性能
NVIDIA持續引領AI產業硬體的關鍵在於不僅止於GPU硬體技術、還有與持續不斷精進的軟體與網路技術結合;NVIDIA公布最新MLPerf Training v4.0基準測試表現,在GPT-3 175B大型語言模型訓練的表現,以較2023年多出3.2倍的GPU數量實現3倍以上的性能增長,展現強大的軟體調校能使GPU數量與性能呈現幾乎1:1的擴充效率,也顯示在相同的硬體架構之下持續擴充規模仍可在軟體不斷增強獲得出色的成效。NVIDIA預期在NVIDIA Blackwell推出後,MLPerf測試基準成績將有更驚人的成果,並邁向訓練與推論的兆參數生成式AI模型世代。 NVIDIA在2023年使用3
1 年前
WWDC 2024:蘋果人工智慧就叫Apple Intelligence,以Private Cloud Compute模式確保隱私攜手OpenAI串接GPT-4o
一如先前傳聞,蘋果在WWDC宣布蘋果全平台作業系統的人工智慧品牌Apple Intelligence,縮寫成AI,算是簡單暴力的命名方式;未來Apple Intelligence將作為蘋果所有與人工智慧有關的應用統稱,並於語言、圖像、操作與個人化內容四大領域呈現;Apple Intelligence將可在A17 Pro、M1、M2、M3與M4等Apple Silicon執行,並透過稱為Private Cloud Compute的主機與雲端的混合模式執行。 此外iOS 18、iPadOS 18與macOS 15預計在2024年末提供免費且免OpenAI帳號的ChatGPT-4o功能服務,Siri
1 年前
Google IO 2024:Google將在2024年6月推出開源模型Gemma 2,並提供與NVIDIA合作可在單一Vertex AI執行的28B參數版本
Google Gemma是與Gemini同源的開放AI模型計畫,也是許多AI服務與應用作為客製化模型訓練的基礎,Google宣布將於2024年6月透過Vertex AI推出新一代Gemma 2,同時還將進一步擴展參數規模,屆時會推出27B參數版本,並強調表現能與具備更多參數的模型抗衡。此外,Google同步預計在夏天於Verstex AI推出Imagen 3圖像生成模型。 ▲Gemma 2的27B參數是與NVIDIA合作可發揮Blackwell潛力的版本,可在單一Vertex AI的GPU Host執行 Google強調Gemma 2 27B參數版本是與NVIDIA密切合作的成果,是為發揮NV
1 年前
聯發科於深圳天璣開發者大會公布天璣9300+平台,與生態系定義生成式AI手機
聯發科在2024年5月7日於中國深圳舉辦天璣開發者大會,除與在地生態系夥伴探討生成式AI的變革與機會,同時攜手Counterpoint與業界生態夥伴發表「生成式AI手機產業白皮書」定義生成式AI手機,也一併公布天璣9300+平台,強調在天璣9300的基礎進行升級,並結合天璣AI開發套件為平台挹注豐富的生成式AI應用。 聯發科天璣AI套件貫串手機、車輛、物聯網、個人電腦等天璣平台 聯發科天璣AI開發套件可支援智慧手機、智慧汽車、物聯網、個人電腦等終端,包括四大主要項目,包括快速高校的GenAI最佳實踐、支援全球主流大模型的GenAI Model Hub、高效提升效能的GenAI最佳化技術、Neu
1 年前
亞馬遜AWS宣布於Amazon SageMaker JumpStart提供Meta Llama 3基礎模型,能進行部署與推論
亞馬遜AWS宣布於Amazon SageMaker JumpStart平台提供Meta Llama 3大型語言模型(LLM),客戶能夠透過Amazon SageMaker JumpStart進行Llama 3的部署與推論。Amazon SageMaker JumpStart將與Meta同步提供8B與70B參數模型,兩款模型的上下文長度皆為8k,能廣泛支援推論、程式碼生成與指令跟隨,後續將隨Meta釋出的時程提供更多參數的版本。 包括美東(北維吉尼亞州)、美東(俄亥俄州)、美西(奧勒岡州)、歐洲(愛爾蘭)和亞太(東京)等區域的客戶現在可以在Amazon SageMaker Studio中透過點擊
1 年前
友站推薦
DarkBERT:誕生自暗網的 AI,卻要為資安盡一份力
INSIDE - Chris
本土繁體中文 LLM 來了!華碩台智雲推出「FFM-Llama 2」
INSIDE - INSIDE 硬塞的網路趨勢觀察
【Howie 商業投資】AI 怎麼用?大型語言模型的四種企業應用
INSIDE - Howie Su
Meta 傳 Llama 3 七月推出!回文標準更寬了,能回答爭議性更大的問題
INSIDE - Jocelyn
你知道 ChatGPT 怎麼運作嗎?OpenAI 用GPT-4 來理解 GPT-2 是什麼
INSIDE - INSIDE 硬塞的網路趨勢觀察
Google、微軟競爭再起!Google Cloud 推新平台,搶佔資安領域生成式 AI 應用 
INSIDE - INSIDE 硬塞的網路趨勢觀察
LLM 軍備競賽下,小型 AI 模型更會出頭天?
INSIDE - Juni
前員工爆:蘋果對 LLM 無感,在 AI 已嚴重落後
INSIDE - Mashdigi

相關文章