Google Lens、Google 搜尋將應用「MUM」語言模型 更聰明搜尋解答、找到更多實用內容

2021.09.30 05:11PM
照片中提到了Search On|、'21,包含了草、2021年Google I / O、谷歌搜索、谷歌、搜索引擎

藉由「MUM」語言模型加持,使用者可以在Google Lens以影像識別方式比對內容後,再由使用者透過文字描述等方式增加額外比對條件,例如在搜尋圖案結果中,額外加入符合搜尋條件的衣物,藉此讓Google Lens可以找到更符合使用者預期的搜尋結果。

今年在Google I/O 2021期間提出名為「MUM」 (Multitask Unified Model)的語言模型,並且透露將讓此項語言模型應用在Google Search等服務後,Google在Search On活動上表示進一步將「MUM」語言模型整合進Google Lens服務,讓此項服務能以更貼近人類理解方式進行搜尋,並且對應更精準翻譯、辨識物品,甚至強化原本拍攝購物等應用功能。

先前說明中,「MUM」語言模型建置採用運算模式,與現行應用在Google Search的BERT、GPT-3模型截然不同,將會逐一比對使用者互動過程中所累積數據,進而模擬人腦記憶學習方式,讓搜尋結果可以更符合實際需求,同時也更加精準。

藉由「MUM」語言模型加持,使用者可以在Google Lens以影像識別方式比對內容後,再由使用者透過文字描述等方式增加額外比對條件,例如在搜尋圖案結果中,額外加入符合搜尋條件的衣物,藉此讓Google Lens可以找到更符合使用者預期的搜尋結果。

另外一個應用例子,則是在腳踏車某個零件損壞時,當使用者不確定零件正確名稱,即可透過Google Lens拍攝該零件,並且加上「如何修復」註解,即可讓系統尋找如何修復該零件相關內容,而非尋找介紹零件本身相關內容,讓使用者能更容易在網路上找到所需解答。

同時,Google也說明將「MUM」語言模型整合進Google Search服務,同時也重新調整操作介面,例如增加「Things to know」選項,讓使用者能針對搜尋結果知曉更多內容,比方當使用者搜尋油漆相關內容時,即可同時顯示刷油漆技巧,或是解釋不同類型油漆差異等。

除了透過文字敘述方式,Google接下來也會透過更多圖像內容,以及動態影片內容,以視覺化方式讓使用者更容易理解所需解答。

Google表示,結合「MUM」語言模型的新版Google Lens將會在未來幾個月內推出,未來也計畫藉由「MUM」語言模型整合更多搜尋所需內容。

0 則回應