1月31日消息,據外媒報道,OpenAI旗下的人工智能聊天機器人ChatGPT再次被曝安全漏洞。
據悉,ChatGPT是OpenAI於2022年11月30日推出的一種新型AI聊天機器人工具,可根據用戶的要求快速生成文章、故事、歌詞、散文、笑話,甚至代碼,並回答各類疑問。
生成式AI在某些情況下非常有用,但也存在許多問題。現在,ChatGPT的另一個問題出現。
本周一,外媒援引一名用戶分享的幾張截圖報道稱,ChatGPT正在泄露私密對話,包括無關用戶的用戶名、密碼以及其他個人信息。除此之外,泄露給這位用戶的其他對話內容還包括某人正在制作的演示文稿名稱,一份未發表的研究提案的細節,以及一個使用PHP編程語言的腳本。每次被泄露的對話的用戶似乎都是不同的,而且彼此互不相關。
對此,OpenAI方面稱,外媒的報道是不準確的,這名用戶報告的ChatGPT歷史記錄是由於他的ChatGPT賬戶被盜用造成的。顯示的聊天歷史和文件是這個賬戶被濫用的對話,而不是ChatGPT顯示另一個用戶的歷史。
OpenAI表示,它正在對此事進行調查。無論調查結果如何,都建議用戶不要與人工智能聊天機器人分享敏感信息,尤其是在不是自己開發的機器人上。
據悉,這不是ChatGPT第一次出現信息泄露問題。2023年3月份,OpenAI曾將ChatGPT下線,原因是一個漏洞導致該網站向無關用戶顯示活躍用戶的聊天記錄中的標題。當時,該公司表示,在將ChatGPT下線之前的幾個小時,一些用戶可以看到另一個活躍用戶的姓名、電子郵件地址、支付地址、信用卡號的後四位數字以及信用卡到期時間。後來,OpenAI修補該漏洞,並報告該問題的技術細節。
這是ChatGPT首次遭遇重大個人數據泄露。為此,OpenAI還發佈一份聲明詳細解釋這一切是如何發生的,並向用戶和整個ChatGPT社區致歉。
2023年11月份,谷歌的一組研究人員發現,通過要求ChatGPT“永遠”重復某些單詞,可讓ChatGPT泄露被用於訓練的數據,包括私人信息(比如,個人姓名、電子郵件、電話號碼等)、研究論文和新聞文章的片段、維基百科頁面等等。不過,研究人員表示,OpenAI在2023年8月30日修補這個漏洞。
由於擔心專有數據或私人數據可能泄露,包括蘋果在內的許多公司都限制員工使用ChatGPT和類似網站。
本周一,意大利數據保護局(Garante)宣佈,OpenAI的ChatGPT以及用於收集用戶數據的技術違反該國的隱私法。
據悉,意大利數據保護局於2023年3月底針對OpenAI啟動調查,並已將調查結果告知OpenAI,OpenAI將有30天時間來對該調查結果做出回應。(小狐貍)