Google AI Edge Gallery 可離線運行於 Android 手機
Google 發表 AI Edge Gallery,Android 手機可離線運行 Hugging Face 託管的 AI 模型,支援圖像生成、問答與程式碼撰寫等功能。 Google近期悄悄再GitHub釋出名為Google AI Edge Gallery的App,將讓使用者能在Android手機執行來自Hugging Face服務平台所託管的人工智慧模型,接下來更計畫推出iOS平台版本。 而透過Google AI Edge Gallery運作的人工智慧模型,均可在裝置端離線運作,無須連網使用,避免使用者的個人隱私上傳到雲端,造成有隱私外洩風險。而此App更以Apache 2.0許可方式提供使
1 個月前
Meta Llama 開源模型下載量破 3.5 億次
Meta 宣布其開源大型自然語言模型 Llama 在 Hugging Face 平台下載量已達 3.5 億次,每月使用量增長 10 倍。 Meta宣布其以開源形式提供使用大型自然語言模型Llama已經在Hugging Face託管平台累積將近3.5億次下載量,對比去年同期累積下載量約成長超過10倍,其中在7月公布的Llama 3.1下載量就累積超過2000萬次。 目前Llama已經透過AWS、Azure、Google Cloud、NVIDIA、IBM、Snowflake、Groq、Databricks等業者服務提供使用,同時每月使用量更增加10倍以上,甚至在Hugging Face平台上更有超
11 個月前
技嘉推出針對企業地端AI訓練與最佳化的AI TOP應用程式,強調使用者友善的可視化設計
隨著生成式AI掀起新一波AI技術熱,技嘉宣布推出獨家AI TOP應用程式,為企業提供地端AI訓練與最佳化,強調重新設計工作流程,並採用使用者友善的操作介面與即時進度監控,使AI初學者與專家都可將開源大型語言模型在地端進行重新訓練與最佳化,提供企業AI落地與私有化。 技嘉AI TOP應用程式已開放下載:AI TOP ▲技嘉AI TOP可支援Hugging Face上的70多個開源LLM,供用戶在地端進行客製化訓練 技嘉強調AI TOP是一套針對地端模型AI最佳化的解決方式,結合技嘉AI TOP硬體進行模型再訓練,可解決顯示卡VRAM在訓練過程記憶體不足等問題,並支援技嘉的GeForce RTX
1 年前
AWS攜手Hugging Face 以 Inferentia 2 處理器加速 AI 模型部署
AWS 與 Hugging Face 合作,利用 Inferentia 2 客製處理器執行 AI 模型,降低成本並提高效能,為開發者和企業提供更多選擇。 亞馬遜旗下雲端平台服務AWS宣布,已經與開源人工智慧社群網站Hugging Face進行合作,將讓開發者、企業能在AWS雲端服務透過其Inferentia 2客製化處理器,以更低成本執行由Hugging Face提供的人工智慧模型。 此次與Hugging Face合作,AWS最主要希望擴充其人工智慧模型應用資源,並且能透過AWS客製化處理器以更具成本效益形式執行運作。 除了與AWS合作,目前Hugging Face也與Google Cloud
1 年前
Qualcomm AI Hub將為Windows on Snapdragon的AI應用提供豐沛的資源
高通為了使開發者更容易發揮Qualcomm AI Engine平台的潛能提供AI應用,宣布推出Snapdragon平台的Qualcomm AI Hub開發工具;高通在微軟2024年Build大會宣布Qualcomm AI Hub將擴展至Snapdragon PC裝置,使Windows PC開發者能利用Qualcomm AI Hub的資源、預先最佳化的AI模型庫進行彈性、客製化且能發揮Snapdragon平台AI加速功能的AI應用。工通也攜手DeepLearning.AI提供線上課程,使開發者能學習裝置中AI與如何為應用程式導入AI,有興趣的開發者可訂閱高通開發者電子報:Qualcomm Dev
1 年前
Hugging Face 千萬美元助開發者 免費 GPU 資源打造 AI 創新技術
Hugging Face 宣布提供 1000 萬美元資金,協助開發者利用共享 GPU 資源打造新 AI 技術,幫助資源匱乏的小型開發者與新創業者,平衡大型企業在 AI 技術上的優勢。 開源人工智慧社群網站Hugging Face宣布,將提供1000萬美元資金協助開發者藉由共享GPU運算資源打造全新人工智慧技術。 接受The Verge網站訪談時,Hugging Face執行長Clem Delangue透露此項名為ZeroGPU的投資計畫,並且強調公司目前已經開始走向營利,因此能有足夠資金協助更多開發者以其資源打造更多人工智慧創新技術。 Clem Delangue表示,將透過資金招募更多GPU運
1 年前
蘋果推出開源自然語言模型 OpenELM 主打終端裝置運作
蘋果 OpenELM 開源自然語言模型提供不同的參數規模選項,現已透過 Hugging Face 平台提供下載。 在Google、微軟、Meta等業者接連推出多款對應人工智慧應用的大型自然語言模型,同時也推出可在終端裝置離線運作的自然語言模型之後,蘋果稍早也宣布推出名為OpenELM的開源自然語言模型,同樣標榜能在終端裝置上運作。 OpenELM已經透過Hugging Face託管平台對外提供下載使用,並且包含4款已經預先完成訓練,以及4款針對指令最佳化調整版本,分別對應2.7億組、4.5億組、11億組與30億組參數規模,相較市面多數以70億組參數在終端裝置運作的自然語言模型都還要小,因此能有
1 年前
ServiceNow、Hugging Face與NVIDIA共同推出程式碼生成的開放大型語言模型StarCode2,提供3B、7B與15B三種模型大小
ServiceNow、Hugging Face與NVIDIA宣布共同推出開放大型語言模型StarCode2,可用於程式碼生成,提供效能、透明度與成本效益;StarCode2與由ServiceNow和Hugging Face共同管理的BigCode社群共同開發,經過619種程式語言訓練,能進一步在企業進行訓練與嵌入執行特定任務,諸如原始程式碼生成、工作流程生成、文章摘要等,開發人員可藉此加速創新與提升生產力。 StarCode 2提供三種模型大小,包括ServiceNow訓練的30億(3B)參數模型、Hugging Face訓練的70億(7B)參數模型,與透過NVIDIA NeMo建構以及在NV
1 年前
Hugging Face 推出 AI助理設計資源 挑戰 OpenAI GPT Store
Hugging Face新推AI助理設計工具,可使用多款開源大型自然語言模型,將與OpenAI的GPT Store競爭。 Hugging Face近期也宣布推出可讓開發者自行客製化打造Hugging Chat AI助理服務的設計資源,同時也提供相關線上市集平台,顯然將與OpenAI今年初正式推出的GPT Store服務競爭。 依照Hugging Face技術主管暨大型自然語言模型總監Phillip Schmid說明,其提供服務將以免費形式提供使用,並且能使用Hugging Face收錄多款開源大型自然語言模型,更標榜能讓開發者以更簡單形式打造AI助理服務。 相較之下,OpenAI雖然提供相似服
1 年前
Hugging Face 獲得科技巨頭投資 市值達 45 億美金
共享機器學習模型及數據集託管平台Hugging Face完成D輪融資,獲Google、AMD等巨頭支持,將用於加速開源AI模型和平台的發展與擴張。 近期接連與AMD、NVIDIA、VMware在內業者深度合作的共享機器學習模型及數據集託管平台Hugging Face,稍早獲得Google、亞馬遜、AMD、NVIDIA、IBM及Salesforce大筆投資。 在此D輪融資中,Hugging Face獲得約2.35億美元資金,使其市場估值增加至45億美元規模。而Hugging Face執行長Clement Delangue說明,將以此筆投資擴大目前達170人的團隊規模,並且持續擴大開源人工智慧模型
1 年前

相關文章