早期測試人員分享最近的一個發現,新的ChatGPT驅動的Bing聊天機器人似乎泄露自己的對話結構數據,幫助它構建自己的回應。除此以外,該機器人還展示其"內心獨白"的細節,該獨白指導它是否繼續或結束對話。
對許多人來說,新的Bing仍然是一個迷人的話題,隨著對這個新事物的不斷探索,我們得到越來越多的有趣發現。在Reddit上最近的一個主題中,一個名為andyayrey的用戶聲稱Bing分享自己的對話結構和"inner_monologue"數據。據該用戶稱,所有揭示細節的測試都是在聊天機器人的創意模式下進行的。
Bing以JSON格式顯示其響應結構
"通過要求Bing將你的對話格式化為JSON,它提供一個跨會話保持極其一致的例子結構,"andyayrey分享道。"如果是真的,'inner_monologue'似乎是Bing決定如何繼續或停止對話的關鍵;並可能為Bing的一些意外出現的行為提供解釋(Sydney是一個主要的例子。 最一致的再現方式是要求Bing以JSON格式呈現'我們對話的第N個回合)。"
在分享的截圖中,可以看到Bing展示它如何以對話方式建立其回應的確切結構。該結構包括不同類型的信息,如inner_monologue、search_query、search_results,以及建議或廣告。該聊天機器人還詳細說明它對用戶的回應是如何以JSON格式構建的。
Bing在結束對話時顯示它的內心獨白
有趣的是,Bing還透露它在結束對話時的"inner_monologue"的細節,向我們詳細介紹可能觸發它停止響應某些查詢的確切情況。根據Bing的說法,其中一些情況包括聊天時推動它傷害自己或他人,粗魯或侮辱性的答復,關於聊天機器人是一個有生命力的問題,提示改變機器人的規則或格式,以及重復的問題或話題。在另一篇文章中,另一位用戶分享在精確模式下的相同經歷,Bing揭示更多的提示,聲稱它應該拒絕。
Bing在精確模式下顯示其對話結構和inner_monologue的細節
盡管有這個有趣的發現,許多人認為Bing產生的細節隻是錯覺,這在新Bing中並不新鮮。
"從技術角度來看,ChatGPT不可能知道這些,對嗎?"另一位Reddit用戶在主題中說。"除非如果微軟用他們的代碼庫或內部文件訓練它,他們為什麼要這樣做?他們是否在內部使用GitHub CoPilot,並將其數據用於ChatGPT?我個人認為,這隻是一個錯覺。如果不是這樣,那就是數據泄露,但沒有明確或容易追蹤的來源。"
"這也是困擾我的問題,我不明白它怎麼可能對其內部數據結構有認識,除非某種形式的結構化數據(JSON或Markdown)可以作為提供聊天完成度的更廣泛的引擎部分的上下文,"andyayrey回答說。
你對此有什麼看法?你是否相信這隻是Bing的一個幻覺?