Google 推出 Gemini 2.5 Flash 版本供開發者使用,具備低延遲與高成本效益特色,有助於優化 AI 模型運算效率。
不久前在Google NEXT』25預覽更低延遲運作、成本效益更高的AI模型Gemini 2.5 Flash,目前已經開始向開發者提供測試。
相比Gemini 2.5 Pro能處理前後達100萬個詞元內容理解處理,並且能進行深度資料分析、在特定專業領域提供關鍵見解,或是在理解整個程式碼後進行複雜編碼工作,成為Google當前能力最高的人工智慧模型,Gemini 2.5 Flash則是提供更低延遲執行效率,以及更低使用成本,預期成為多數應用服務主力使用模型,同時也能保持一定執行處理正確率表現,適合用於製作互動虛擬助理,或是即時內容摘要工具。
而Gemini 2.5 Flash同時具備動態、可控的推理能力,可依照提問內容複雜度自動調整處理時間 (可視為「思考預算」考量),針對可簡單回覆提問內容更快做出互動,同時開發者或企業也能設定使用成本,依照實際需求調整回應速度、準確率,藉此讓服務運作預算可更有效益地使用。
開發者可以透過Google AI Studio或Vertex AI平台調整Gemini 2.5 Flash「思考」時生成的詞元數量。若將詞元數量調整越低,其反應速度就會越快,反之則會以更多時間進行「思考」,而背後反應成本也會相對較高。
至於在Gemini 2.5 Flash的知識量,目前截至今年1月擷取內容,並且同樣支援文字、圖片、影片、音訊多模態輸入,但結果僅能輸出文字內容,同時定位上將取代原本的Gemini 2.0 Flash Thinking。