蘋果新聞 Siri 蘋果 WWDC 2024 蘋果正透過大型自然語言模型訓練 Siri 最快 WWDC 2024 公布 大型自然語言模型訓練後,可預期Siri能有更自然的人工智慧互動體驗,蘋果也會透過裝置端運算應用,提升服務反應效率 消息指稱,蘋果目前正透過大型自然語言模型訓練Siri數位助理服務,使其能有更自然的人工智慧互動體驗,最快會在明年WWDC 2024期間公布。 跟他業者一樣,蘋果接下來也會更重視裝置端運算應用,藉此對應更快服務反應效率,同時也能確保用戶隱私安全。 雖然蘋果先前一直未透露是否投入自動生成式人工智慧技術發展,但許多服務其實都大幅應用深度學習等技術應用,讓使用者能更快找到所需信件,或是透過臉部、場景識別方式快速找到正確照片。而在先前回應說法中,蘋果執行長Tim Cook也透露對於人工智慧技 Mash Yang 1 年前
科技應用 Olympus Alexa aws 人工智慧 亞馬遜將推出參數規模2兆組大型自然語言模型「Olympus」 亞馬遜將發表代號「Olympus」的大型AI模型,規模是GPT-4的兩倍,希望提升電商及智慧裝置的服務體驗,並強化AWS平台的AI能力。 The Information網站取得消息指稱,亞馬遜即將推出參數規模高達2兆組、代號為「Olympus」的大型自然語言模型,預期最快會在今年12月上線。 相比OpenAI推出的GPT-4參數規模達1兆組,亞馬遜預計推出代號為「Olympus」的大型自然語言模型明顯在參數規模大上一倍,或許會在接下來舉辦的re:Invent 2023期間亮相,並且將用於旗下電商服務、Echo等智慧裝置,同時也預期整合至AWS雲端平台,讓更多開發者、企業使用。 在此之前,亞馬遜 Mash Yang 1 年前
科技應用 nvidia 超級電腦 人工智慧 MLPerf H100 Tensor Core GPU NVIDIA H100 Tensor Core GPU 於MLPerf基準測試再創紀錄 訓練大型自然語言模型速度快上 3 倍 採用H100 Tensor Core GPU的NVIDIA EOS超級電腦完成GPT-3訓練的效率是先前紀錄的三倍,展現了在大型AI應用場景下的強大潛力。 NVIDIA表示,去年宣布推出的H100 Tensor Core GPU再次於MLPerf基準測試創下新紀錄,相比近半年前的紀錄快上3倍。 此次以10752組H100 Tensor Core GPU與Quantum-2 InfiniBand網路技術構成的NVIDIA EOS人工智慧超級電腦,在短短3.9分鐘內完成以Open AI GPT-3大型自然語言模型、多達1750億組參數的訓練基準,相比近半年前以10.9分鐘完成的紀錄,約快上3倍速度 Mash Yang 1 年前
科技應用 三星 人工智慧應用 Samsung Gauss 三星推出多模態大型語言模型 Samsung Gauss 未來將用於自有產品及服務 Samsung Gauss是三星推出的自有多模態大型語言模型,擁有文字、程式碼、圖像等多元應用能力,未來將用於三星旗下產品及服務。 在稍早於南韓首爾舉辦的三星AI論壇活動上,三星宣布推出名稱源自德國數學家高斯的自有多模態大型語言模型Samsung Gauss,並且標榜能佈署於雲端伺服器,或是在裝置端使用。 而Samsung Gauss分別包含可對應文字相關分析、理解應用功能的Samsung Gauss Language,以及包含可協助工程人員撰寫程式的Samsung Gauss Code,此外也包含可用於自動生成圖像、處理照片的Samsung Gauss Image。 Samsung Gaus Mash Yang 1 年前
科技應用 AI zoom companion Zoom AI Companion 新功能上線 支援更多語言、提供會議教練服務 Zoom AI Companion宣布新增支援更多語言、提供會議教練服務等新功能,提升其在企業市場的競爭力。 Zoom宣布,其生成式AI助理Zoom AI Companion於正式推出後的兩個月內,已經吸引超過125000名用戶使用,並且生成超過一百萬則會議摘要。在達成眾多里程碑的同時,Zoom進一步公布Zoom AI Companion將支援更多語言,並且將現有功能最佳化。 Zoom產品長Smita Hashim表示:「Zoom致力透過平台為用戶帶來最佳價值,這也是我們於付費方案中全面開放Zoom AI Companion 的主因。Zoom持續推動AI功能革新,希望讓更多用戶得以享受Zoom Mash Yang 1 年前
產業消息 Snapdragon 8 Gen 3 大型語言模型 生成式AI LLM Llama 2 INT4 Snapdragon Summit 2023 :高通表示理論上配有 8GB RAM 的 Snapdragon 8 Gen 3 手機就能夠執行 70 億參數大型語言模型,一切都感謝 INT4 (後面有手機執行生成式 AI 畫圖的示範短片) 高通 Snapdragon 8 Gen 3 主打的重要特色是足以在手機執行 100 億以上參數的大型語言模型 LLM 的 AI 運算效能,不過若對 AI 有一定的理解,可能會優先質疑是否手機需要搭載龐大容量的記憶體才足提供執行 100 億參數所需的容量;在跟高通的工作人員詢問後,若是要在 Snapdrgaon 8 Gen 3 執行像是 70 億個參數的 Llama 2 模型,其實 8GB 容量的標準規格旗艦手機理論上就綽綽有餘了,其中的關鍵就是 Snapdragon 8 Gen 3 支援精度媲美 INT8 的 INT4 ,以及與 AI 產業夥伴針對 INT4 進行最佳化。 ▲榮耀 Honor Chevelle.fu 1 年前
科技應用 亞馬遜 PaLM 2 Llama 2 Titan Text 史丹佛大學評比大型自然語言模型透明度,Meta Llama 2 奪冠,亞馬遜 Titan Text 墊底 史丹佛評估指標包括模型的運作模式、架構、監控機制等,認為目前的大型自然語言模型都還不夠透明,不建議企業或政府機構使用這些模型來提供服務。 史丹佛大學人本人工智慧學院 (Stanford University Human-Centered Artificial Intelligence,Stanford HAI)稍早公布10款被大量採用的大型自然語言模型透明度指標,其中獲得最高分的是Meta旗下Llama 2,而排名最低的則是亞馬遜旗下Titan Text,至於OpenAI的GPT-4則在排名第四,Google的PaLM 2則位居第五,在Stability.ai排名之後。 不過,報告中也指出即便 Mash Yang 1 年前
科技應用 NEC AI Framework Generative NEC 展示大型自然語言模型「NEC Generative AI Framework」 有更高日語理解應對能力 NEC展示自家大型語言模型,強調日語理解與佈署彈性,目標擴展日本市場合作。 NEC在CEATEC 2023期間展示其內部使用的大型自然語言模型「NEC Generative AI Framework」,主要透過928組GPU、580 PFLOPS算力表現的超級電腦支撐運作,並且標榜能有充足的日語理解應對能力,總參數量則約在130億組規模。 相比OpenAI的GPT-3約為1750億組參數規模,以及Meta的Llama2約為700億組參數規模,NEC的大型自然語言模型規模小了一些,同時整體執行反應速度約在10秒左右才會給出解答,但NEC認為此規模的大型自然語言模型相對容易操作、微調,同時在運作上 Mash Yang 1 年前
雲端服務 中研院 ChatGPT 生成式AI Llama 2 CKIP-Llama-2-7b 中研院開發AI語言模型下架 因各種測試皆表明自己是中國籍 應該是訓練的資料都是簡體轉繁體造成的,生肉都來自於中國訓練的結果當然也是,不過中研院也聲明這只是一個個人的小型研究,並不是所謂的「台灣版ChatGPT」,目前也將測試版從網站上下架。 由中研院開發的繁體中文語言模型AI,網友實測提問,卻自動回覆「我的國籍是中國」。中研院今天表示,模型產生內容出乎預期,也是未來要努力改善的地方,已將測試版先下架。 根據中央研究院網站說明,CKIP-Llama-2-7b是中央研究院詞庫小組(CKIP)開發的開源可商用繁體中文大型語言模型(large language model),以商用開源模型Llama-2-7b以及Atom-7b為基礎,再補強繁體中文的處理能力 中央社 1 年前
科技應用 meta Llama 2 Long Meta 推出 Llama 2 Long 大型自然語言模型 可處理長文內容、對應前後文關聯 Llama 2 Long也以開源形式提供,讓更多研究人員、開發者能使用,並且進一步開發出更先進的應用。 Meta稍早公布可處理長文內容的Llama 2 Long大型自然語言模型,建立在可對應32768組標記 (token)、700億個參數情況下,並且在整體表現優於同樣可處理長文內容的GPT-3.5-Turbo-16K版本。 Llama 2 Long強項在於處理長文內容,並且對應前後文關聯,藉此對應更複雜、多樣性的人工智慧互動處理需求,其中包含聊天機器人自然互動,或是對於內容繁多的文件分析等。 而先前可對應長文內容的大型自然語言模型,幾乎都是以商業應用為主,因此Meta此次提出Llama 2 L Mash Yang 1 年前