Google在周三的SearchOn活動中宣佈,Google多重語言搜索工具--可以讓用戶同時使用圖片和一些文字進行搜索--將在未來幾個月內擴展到全球70多種語言。多重搜索通過使用GoogleLens讓用戶更容易搜索那些僅用文字可能難以挖掘的東西。
比方說當用戶看到一件自己喜歡的夾克但想找到它的另一種顏色,有多重搜索,他就可以在Google的Android或iOS應用中打開Google Lens,然後拍下夾克的照片並輸入自己想找到的夾克顏色,隨後搜索。通過在更多語言中提供多重搜索,更多的人將能使用它。該工具最初於4月推出,不過當時僅在美國進行測試,目前則在全球范圍內提供英語版本。
然而,有一項新的多語言搜索功能即將推出,據悉,它將率先在美國使用。在今年的GoogleI/O大會上,該公司預覽“我附近的多重搜索”,它可以讓用戶在當地找到東西。例如,如果正在尋找某道菜而這道菜可能在附近的一傢餐館有售,這可能很有用。在搜索大會上,Google宣佈這項功能將在今年秋天的某個時候登陸美國。
Google還展示其他一些看起來很方便的搜索功能。從周三開始,Google的iOS應用將開始在搜索欄下顯示快捷鍵以顯示搜索已經可以做的強大功能如用相機翻譯文本或允許用戶哼唱搜索歌曲。Google副總裁兼搜索部總經理Cathy Edwards在一次新聞發佈會上說,這些快捷方式將很快出現在Android應用中。
該公司還推出一些新的工具以幫助用戶發現更多關於某個特定主題的信息。如當開始在搜索框中輸入東西時,Google正在建立一個功能從而將建議用戶點擊關鍵詞和主題選項以幫助填寫其查詢。
這聽起來可能像自動完成,但在實踐中似乎會有一些不同。用戶可以在下面的GIF中解它是如何工作的。另外,Google還可以在這些建議下向用戶顯示天氣等信息。這項功能將在未來幾個月在美國的手機上推出英文版本。
而在實際結果中,Google計劃以一種更直觀的方式來展示事物。在向媒體展示的一個例子中,Google顯示信息框,其中包括天氣和在該市拍攝的視頻,而不是隻有關於瓦哈卡的鏈接列表。這些變化將在未來幾個月在美國的英文版本中出現,同時也會在手機上出現。