Google周三在其“SearchOn”活動中宣佈,Google的一項新功能將允許用戶使用圖片和文字相結合的方式進行搜索,以找到提供他們正在尋找的服裝、傢居用品或食品的當地零售商,該功能將很快向美國的用戶推出。該公司曾在今年5月的GoogleI/O開發者大會上預覽這一功能,預示著這一發展似乎是建立在AR眼鏡可以用來啟動搜索的未來。
這項功能建立在Google4月推出的人工智能驅動的“Multisearch”功能之上,該功能讓用戶結合照片和文字來制作自定義搜索,最初是圍繞服裝購物。例如,用戶可以用一張連衣裙的照片在Google上搜索,然後輸入“綠色”一詞,以將搜索結果限制為僅顯示該連衣裙有該特定顏色的搜索結果。
同時,Multisearch Near Me進一步擴展這一功能,因為它可以將用戶指向有綠色裙子庫存的當地零售商。它還可以用來定位其他類型的商品,如傢居用品、硬件、鞋子,甚至是當地餐館最喜歡的一道菜。
Google副總裁兼搜索部總經理Cathy Edwards說:“這種新的搜索方式實際上是幫助你與當地企業建立聯系,無論你是想支持你當地的鄰裡商店,還是你隻是馬上需要一些東西,不能等待運輸。”
在Google的開發者大會上,該公司已經預覽這項功能將如何工作,因為用戶可以利用他們的手機攝像頭或上傳圖片來開始這種不同類型的搜索查詢。該公司還展示有一天用戶可以用相機圍繞他們面前的場景來解他們面前的物體--有人猜測,這一功能將成為AR眼鏡的一個引人註目的補充。
然而,這項功能本身在當時還沒有向用戶開放--它隻是一個預覽。
周三,Google說Multisearch Near Me將在“今年秋天”向美國用戶推出英語版本。它沒有給出一個確切的推出日期。
此外,Multisearch功能本身也將在未來幾個月內擴展到支持70多種語言。