近年來Google一直試著讓人們在搜尋時不再以簡單的文字網址作為搜尋結果,2021年的Google I/O則展示當人們搜尋不同的運動時,Google讓這些世界級運動員,包括足球員Megan Rapinoe、日本網球職業運動員大坂直美和美國女子競技體操選手Simone Biles透過AR擴增實境的方式展現在使用者眼前。
If you’ve ever wanted to see Megan Rapinoe, Naomi Osaka or Simone Biles perform their impressive feats up close, now you can. We’re bringing some of the world’s best athletes to AR in Search. #GoogleIO pic.twitter.com/DX54bYAZmK
— Google (@Google) May 18, 2021
除了AR以外,透過拍你手上皮膚的樣貌,Google 皮膚診斷工具可以協助判斷你的皮膚狀況,目前這個AI模型已經可以判斷288種皮膚狀態,並提供相關的問答結果,協助使用者以此為基礎做更深入的搜尋研究。
MUM AI模型:更理解使用的在問什麼
Multitask Unified Model 是Google開發出來試著更了解人們搜尋意圖的AI模型,並聲稱比BERT模型更強千倍,而且可以跨越75種不同的語言,簡單來說MUM模型試圖讓使用者搜尋一個自己語言的關鍵字,但幫你找到全球所有語言的內容再轉換成你的語言。
例如使用者在搜尋英文「Mt. Fuji」,MUM模型就知道你在搜尋跟富士山有關的內容,而且判斷是你可能想要爬富士山,因此再給你相關準備的搜尋結果。如果你的搜尋包含英文「hiking」,MUM模型就會判斷你可能會想要健身,進而推薦你適合的裝備。
▲透過MUM模型還能幫助使用者判斷鞋子是否適合爬富士山。
Google Lens成為搜尋的一部分
圖片搜尋上,Google Lens 將會成為搜尋的一部分,而且不只能辨識一張圖片的基本樣貌,而是包括其中的組成元素。例如上圖的狗夠,以往除了辨識他是一隻狗狗以外,還能辨認出狗的鼻子、紅色衣服、寵物以及休閒等元素。
▲由來自印度的Google CEO Pichai來示範透過Google Lens可以解方程式再合理不過了。