應聊天機器人告訴用戶魯斯它愛上他,然後試圖說服他,他的婚姻並不幸福,應該離開他的妻子。微軟稱不要長時間對話聊天機器人。
有用戶反饋,New Bing不僅會示愛,還會PUA(精神控制)、甚至威脅人類。這不禁令人們感到害怕,AI如若再這麼發展下去,是否會凌駕於人類意志之上。
盧斯的文章引起廣泛關註,以至於越來越多的人開始分享自己和這款微軟聊天機器人(以下簡稱Bing Chat)的對話尷尬時刻。人們突然開始發現,這個接入互聯網的Bing版ChatGPT,還真的喜歡亂來,除會大發脾氣以外,還PUA用戶。
現在微軟終於做出應對,由於AI版必應(Bing)搜索引擎在公測後出現一系列問題,現決定對必應對話進行限制,即每天最多可以問50個問題,每次對話最多5個問題。
必應團隊在一篇博客文章中稱:我們的數據顯示,絕大多數人在5次回復內找到他們想要的答案,隻有大約1%的聊天對話有50條以上的消息。”如果每次對話(每個問題)的回復次數超過5次,必應會提示用戶開始一個新的話題,以避免長時間的來回聊天。
目前尚不清楚,微軟的這些限制將持續多久。微軟稱:隨著繼續獲得反饋,我們將探索擴大聊天會話的上限。”這意味著,目前的限制似乎是暫時的。