任何跟朋友分享過歡笑的人都知道,幽默可以使人深深地連接在一起,因此,如果我們未來的機器人夥伴能跟我們一起歡笑就有可能更好地贏得我們的信任和喜愛。但僅僅因為機器人會講笑話並不意味著它能對這些笑話作出適當的反應。
這就是日本研究人員正試圖教不茍言笑的機器人書呆子在正確的時間和以正確的方式笑的原因。事實證明,訓練一個AI笑並不像教它對一個絕望的電話樹請求取消訂閱那樣簡單。周四發表在《Frontiers in Robotics and AI》上的一項研究指出--“試圖模仿日常對話的系統仍在為何時笑的概念而掙紮”。
據解,該研究詳細介紹該團隊開發AI話系統的研究,該系統專註於共同的笑聲以使人類和機器人之間的聊天變得更加自然。他們設想將其整合到現有的機器人和代理的對話軟件中,這些軟件已經在學習檢測情緒和處理像模糊的人類命令這樣的開放式復雜問題。
“我們認為對話式AI的重要功能之一是移情,”來自日本京都大學的信息學助理教授、該研究的論文共同作者Koji Inoue在一份聲明中說道,“當然,對話是多模態的,不僅僅是正確的回應。所以我們決定,機器人能跟用戶產生共鳴的一種方式是分享他們的笑聲。”
關鍵是,該系統不僅能識別笑聲還能決定是否笑著回應然後選擇合適的笑聲類型。“這篇論文最重要的結果是,我們已經展示我們如何將所有這三項任務結合到一個機器人中,”Inoue表示,“我們認為,這種類型的組合系統對於正確的笑聲行為是必要的,而不僅僅是檢測到笑聲並對其做出反應。”
為收集關於共同笑聲的頻率和類型的訓練數據,該團隊利用Erica--一個由日本科學傢Hiroshi Ishiguro和Kohei Ogawa設計的先進仿人機器人--作為研究人與機器人互動的平臺。據悉,Erica能夠理解自然語言、擁有合成的人類聲音並且在聽人類講述他們的問題時眨眼和移動眼睛。
研究人員記錄京都大學男學生之間的對話,他們輪流跟Erica面對面聊天,而在另一個房間裡,那裡的業餘女演員通過麥克風遠程操作機器人。科學傢們選擇這種設置,因為他們知道人類彼此之間的交談方式和他們與機器人的交談方式之間自然會有差異,即使是那些由另一個人控制的機器人。
京都大學研究員Divesh Lala(該研究的另一位合著者)說道:“我們希望盡可能地讓笑聲模型在跟真實的人類-機器人互動相似的條件下進行訓練。 ”
基於這些互動,研究人員在人類和Erica之間創建四段簡短的音頻對話。期間,Erica被編程為以不同程度的笑聲來回應對話,從完全沒有笑聲到經常笑著回應人類的對話夥伴。然後志願者們對這些插曲的共鳴性、自然性、與人類的相似性和理解性進行評分。共享笑聲的場景比Erica從不笑或每次檢測到人類笑聲時都笑而不使用其他兩個子系統來過濾背景和反應的場景表現更好。
京都大學的研究人員已將他們的共享笑聲系統編入除Erica之外的機器人。事實上,即使機器人變得越來越栩栩如生,有時甚至令人不安,機器人專傢仍承認,為它們註入自己獨特的人類特征帶來超越編碼的挑戰。
Inoue說道:“我們很可能需要10到20年以上的時間才能最終與機器人像與朋友一樣隨意交談。”