Google母公司Alphabet正嘗試將機器人和AI語言理解兩個方面的研究整合起來,從而讓“HelperRobot”更能理解人類的自然語言命令。早在2019年,Alphabet就開始研發機器人,讓其執行諸如拿起飲料和清潔臺面這樣簡單的任務。
不過,Everyday Robots 項目仍處於起步階段,機器人的反應緩慢且沒有準確執行人類的命令。但機器人現在通過 Google 的大型語言模型 (LLM) PaLM 提高語言理解能力。目前,大部分機器人隻能對一些簡短的話語做出響應,例如“給我一杯水”。不過像 GPT-3 和 Google 的 MuM 這樣的 LLM 模型能夠更好解析命令背後的意圖。
Google 的示例中,你可以向一臺 Everyday Robots 原型提問:“我的飲料灑,你能幫忙嗎?”機器人通過可能動作的內部列表過濾此指令,並將其解釋為“從廚房拿來抹佈”。
Google 將由此產生的系統命名為 PaLM-SayCan,這個名稱捕捉該模型如何將 LLM 的語言理解技能(“Say”)與其機器人的“能力基礎”(即“Can”——通過可能的動作過濾指令)結合起來。
Google 表示,機器人在整合 PaLM-SayCan 後,在對 101 條用戶指令的測試中正確響應率為 84%,正確執行率為 74%。雖然這個數字看起來很高,但是目前我們並不知道這 101 條指令的列表,因此不清楚這些指令的限制程度。