Google 預期當前 AI 技術將維持多模型發展 但未來發布版本不會過於複雜

2025.04.10 01:16PM

Google 預期現有 AI 技術將持續維持多模型發展,但未來發行版本不會過於複雜,將簡化使用者體驗。

針對目前人工智慧技術快速成長,同時也有越來越多人工智慧模型進入市場普及應用,而許多生成式人工智慧服務更讓原本不具備開發者技術背景的人也能成為「開發者」,筆者在此次Google NEXT』25期間也從Google方面對此趨勢分享看法。

其中,Google Cloud負責協助程式編寫與產品開發的產品管理資深總監Ryan Salva表示,其實程式編寫工作很多時候是在維護、更新編碼內容,並且使其能更符合使用需求調整,僅在特定時候才會投入編寫全新編碼內容。

而將生成式人工智慧技術用於編碼,主要則是用於輔助檢查錯誤,並且將編碼內容最佳化,並且讓工作人員能有更多時間檢查是否有潛在未能以人工智慧發現錯誤,同時也能將更多心力放在確認編碼內容能否在不同服務之間相容運作。

即便能以人工智慧方式簡化工作流程,程式編寫工作實質上還是需要一定識別能力,藉此判斷程式編碼是否真的正確、無誤,並且達成最佳化調整。因此,在當前的人工智慧技術趨勢發展下,程式編寫等開發工作暫時還不會全面被人工智慧取代。

Google DeepMind負責人工智慧開發者平台項目的產品副總裁Mat Velloso指出,接下來的人工智慧模型將會朝向更大參數量規模、更多功能應用方向發展,雖然數量不一定會大量衍生,但起碼會依照不同使用需求區分不同版本,如同在各類情況使用需求會以不同「專家」能力應對。

因此從現實層面來看,目前要實現能完全模擬人類大腦的通用人工智慧 (artificial general intelligence,AGI)顯然仍有難度,因此短時間內仍會維持以不同人工智慧模型個別完成其擅長任務,或是處理特定類型問題應用模式為主,但未來分佈版本數量應該會隨著各個模型性能提升而遞減。

Mat 2▲目前市場上的人工智慧模型數量繁多,未來也會朝向更大規模參數量、更多功能應用,但也會有鎖定輕量運作的使用設計

對於DeepSeek等業者著重以蒸餾等方式,在不會大幅影響模型執行效能情況下,讓人工智慧模型運作成本降低的作法,Mat Velloso則認為此為接下來的市場趨勢,更透露目前Google在Gemini模型的設計中也採用類似作法。

例如,簡化為270億組參數規模的Gemma 3模型,在Chatbot Arena Elo測試項目效能表現僅次於參數規模為6710億組的DeepSeek R1,甚至僅需單張NVIDIA H100 GPU即可加速運作,意味能在發揮相近效能情況下以更快速度運作,同時能以更低成本使用。

Mat 1▲簡化為270億組參數規模的Gemma 3模型,在Chatbot Arena Elo測試項目效能表現僅次於參數規模為6710億組的DeepSeek R1,甚至僅需單張NVIDIA H100 GPU即可加速運作

另一方面,Mat Velloso也說明合成數據將成為接下來人工智慧重要訓練來源,在不影響安全情況下,越來越多人工智慧業者預期會更傾向透過合成數據訓練模型,而Google目前也已經透過合成數據訓練Gemini模型,但如同許多自駕車業者以合成數據訓練車輛時,會格外留意數據正確性、合法性,Google也會對於使用合成數據訓練作法特別謹慎。

至於針對Perplexity.ai標榜系統能自動依照提問互動內容自動選擇合適模型的運作模式,Mat Velloso也說明Google也有提供類似設計,更說明Google的設計理念更偏重讓使用者以更少資源獲取更高的人工智慧運算效益。

IMG 8904▲Google DeepMind產品副總裁Mat Velloso