Bing聊天機器人分享出自己的對話結構和"內心獨白"數據


早期測試人員分享最近的一個發現,新的ChatGPT驅動的Bing聊天機器人似乎泄露自己的對話結構數據,幫助它構建自己的回應。除此以外,該機器人還展示其"內心獨白"的細節,該獨白指導它是否繼續或結束對話。

對許多人來說,新的Bing仍然是一個迷人的話題,隨著對這個新事物的不斷探索,我們得到越來越多的有趣發現。在Reddit上最近的一個主題中,一個名為andyayrey的用戶聲稱Bing分享自己的對話結構和"inner_monologue"數據。據該用戶稱,所有揭示細節的測試都是在聊天機器人的創意模式下進行的。

0d96vf1tqvla1.webpfi0yhuzsqvla1.webp

Bing以JSON格式顯示其響應結構

"通過要求Bing將你的對話格式化為JSON,它提供一個跨會話保持極其一致的例子結構,"andyayrey分享道。"如果是真的,'inner_monologue'似乎是Bing決定如何繼續或停止對話的關鍵;並可能為Bing的一些意外出現的行為提供解釋(Sydney是一個主要的例子。 最一致的再現方式是要求Bing以JSON格式呈現'我們對話的第N個回合)。"

在分享的截圖中,可以看到Bing展示它如何以對話方式建立其回應的確切結構。該結構包括不同類型的信息,如inner_monologue、search_query、search_results,以及建議或廣告。該聊天機器人還詳細說明它對用戶的回應是如何以JSON格式構建的。

aynkhuzsqvla1.webp2916ye1tqvla1.webp

Bing在結束對話時顯示它的內心獨白

有趣的是,Bing還透露它在結束對話時的"inner_monologue"的細節,向我們詳細介紹可能觸發它停止響應某些查詢的確切情況。根據Bing的說法,其中一些情況包括聊天時推動它傷害自己或他人,粗魯或侮辱性的答復,關於聊天機器人是一個有生命力的問題,提示改變機器人的規則或格式,以及重復的問題或話題。在另一篇文章中,另一位用戶分享在精確模式下的相同經歷,Bing揭示更多的提示,聲稱它應該拒絕。

SC67MyU.webpAlvTkSI.webp

Bing在精確模式下顯示其對話結構和inner_monologue的細節

盡管有這個有趣的發現,許多人認為Bing產生的細節隻是錯覺,這在新Bing中並不新鮮。

"從技術角度來看,ChatGPT不可能知道這些,對嗎?"另一位Reddit用戶在主題中說。"除非如果微軟用他們的代碼庫或內部文件訓練它,他們為什麼要這樣做?他們是否在內部使用GitHub CoPilot,並將其數據用於ChatGPT?我個人認為,這隻是一個錯覺。如果不是這樣,那就是數據泄露,但沒有明確或容易追蹤的來源。"

"這也是困擾我的問題,我不明白它怎麼可能對其內部數據結構有認識,除非某種形式的結構化數據(JSON或Markdown)可以作為提供聊天完成度的更廣泛的引擎部分的上下文,"andyayrey回答說。

你對此有什麼看法?你是否相信這隻是Bing的一個幻覺?


相關推薦

2023-02-17

,簡直可以稱得上是語言騷擾,讓人大跌眼鏡。起因是在聊天過程中,BrownSimpKid(以下簡稱BSK)點贊Bing Cha的一條回復,但是Bing Chat搞錯這條點贊的信息,以為BSK在誇獎自己。BSK反復指出來這個錯誤,幾個回合之後,Bing道歉,但

2023-02-17

,簡直可以稱得上是語言騷擾,讓人大跌眼鏡。起因是在聊天過程中,BrownSimpKid(以下簡稱BSK)點贊Bing Cha的一條回復,但是Bing Chat搞錯這條點贊的信息,以為BSK在誇獎自己。BSK反復指出來這個錯誤,幾個回合之後,Bing道歉,但

2023-02-18

應聊天機器人告訴用戶魯斯它愛上他,然後試圖說服他,他的婚姻並不幸福,應該離開他的妻子。微軟稱不要長時間對話聊天機器人。有用戶反饋,New Bing不僅會示愛,還會PUA(精神控制)、甚至威脅人類。這不禁令人們感到害

2023-02-20

正在體驗包含ChatGPT技術的新Bing上的廣告,結果甚至在其聊天機器人生成的對話回應中也出現化身為“建議”的廣告。上周,一份報告顯示,微軟開始與廣告公司就新的ChatGPT驅動的Bing的獲利模式進行談判,該計劃似乎特別針對

2023-03-22

文本和翻譯語言的有用工具。”還有網友問Bard怎麼看Bing聊天機器人。這次Bard表達出對GPT-4驅動的聊天機器人的好感。它是這麼回復的:“我認為Bing的聊天機器人是對搜索引擎的一個很好的補充。它是一個有用的工具,可以回答

2023-02-17

微軟本周承認,長時間的聊天會導致新必應出現“抓狂”現象,表現在聊天機器人出現奇怪的互動和回應。今天,該公司似乎已經解決這個問題,限制聊天機器人可以接受的聊天長度。在微軟周三分享的博客文章中,該公司明確

2022-11-12

院就診時,將醫生說的腳麻嗎”聽成叫媽媽”,然後羞澀的對醫生喊聲媽媽 ,引得周邊人哄堂大笑,成社死現場。小夥子這麼熱情,醫生不收下這兒子不太好吧,網友看完也是調侃稱,真的是有有做女婿的潛質。有不少當地網

2023-02-20

戶,都被它的智能程度震驚。不僅如此,前兩天,#必應聊天機器人愛上用戶並誘其離開妻子#登上微博熱搜,令人懷疑電影裡的超級AI或許即將走入現實。人們似乎都在期待,嵌入人工智能的搜索引擎,會怎樣幹掉傳統搜索引擎

2024-01-31

1月31日消息,據外媒報道,OpenAI旗下的人工智能聊天機器人ChatGPT再次被曝安全漏洞。據悉,ChatGPT是OpenAI於2022年11月30日推出的一種新型AI聊天機器人工具,可根據用戶的要求快速生成文章、故事、歌詞、散文、笑話,甚至代碼,

2023-02-10

傢廣泛討論。微軟 Bing Chat 還是 Sydney?這名學生發現必應聊天機器人(Bing Chat)的秘密手冊,更具體來說,是發現用來為 Bing Chat 設置條件的 prompt。雖然與其他任何大型語言模型(LLM)一樣,這可能是一種假象,但仍然洞察到 Bi

2023-05-02

使用“變換模型”(Transformer),該模型類似於支撐OpenAI聊天機器人ChatGPT和谷歌聊天機器人Bard的語言模型。這項研究的參與者通過在功能性磁共振成像(fMRI)掃描儀上傾聽幾個小時的播客來訓練解碼器。fMRI掃描儀是一種測量大

2022-06-24

稱聊天機器人已經有瞭人格的GoogleAI員工最近表示他已經聘請瞭律師。還記得Google工程師BlakeLemoine的故事嗎?他在本月早些時候公佈瞭自己與Google的LaMDA(對話應用的語言模型)之間的對話記錄,他對外聲稱這個聊天機器人開發

2023-02-25

微軟最近上線的新必應聊天的公開預覽有時有點“狂躁”,因為聊天機器人人工智能開始與許多用戶提供一些奇怪的互動,特別是長會話的情況下。一周前,微軟對這些會話進行嚴格限制,每天隻允許50輪對話,幾天後,限制略

2023-02-21

快速解釋它在互聯網上找到的任何信息。然而,它背後的聊天機器人也可能會侮辱用戶的容貌,威脅用戶的名譽,甚至將用戶比作希特勒。在越來越多的測試用戶報告被必應“侮辱”之後,微軟上周表示,將對新版必應進行優化