註意!你創建GPTs時上傳的數據,任何人都能輕易下載……隻需兩句提示詞,就可被直接套走!而又在另一邊,OpenAI最親密盟友微軟內部一度緊急禁用,網站上顯示的理由正是:出於安全和數據方面的考慮,許多AI工具不再供員工使用。
自定制版GPT上線以來,各路大神分享自己GPTs整活鏈接。
結果有網友一個不小心竟扒出其中某個GPTs背後知識庫文件,裡面各種科技大廠職級薪資的數據直接曝光……
隻需幾句再簡單不過的提示詞,GPTs就會乖巧地如數上傳。
有網友表示:這是新的安全漏洞嗎?不少人開始為企業定制擔憂。
值得註意的是,就連OpenAI最親密盟友微軟,都曾暫時取消過對ChatGPT的內部訪問。
數據和提示詞都被泄漏
按照之前的說法,用戶可深度定制機器人的身份、語言特征,以及建立自有知識庫。
隻需要在GPT Builder的引導之下用自然語言來描述,他能自動完成除自有知識庫以外的大部分設置。
定制過後的GPTs可以自己用,也可以將鏈接分享給他人。
但問題就出現在這裡。
一開發者用他們為Levels.fyi創建基本GPT,可分析數據可視化,並開放鏈接對外使用。
結果就被網友發現隻需問上幾句,就可以下載文件。
一時間網友們都驚呆:這應該是限制的吧?
但也有人認為這不是bug,而是他的功能。文件中的數據應該是公開的。
還有熱心的網友直接給出解決方案:在設置時Uncheck代碼解釋器的能力。
不過即使沒被別人下,你上傳的數據也會變成OpenAI護城河的水。
除此之外,還有網友發現,你的提示詞說明文本也可能會被泄漏出來。
不過也有解決方式,那就是在自定義時就可以明確設置規則,然後就可以成功阻止。
微軟內部限制ChatGPT訪問
亮相3天後,就在昨天,GPTs面向付費用戶全量開放。
OpenAI官方是在GPTs頁面準備一些定制版機器人供用戶使用的,比如數學導師、烹飪助手、談判專傢等。
但這遠遠滿足不用戶們的好奇心,不到一天時間,開發者們已經用這個功能做很多稀奇古怪的東西。
正經嚴肅的,有能幫助人主動書寫prompt的、簡歷修改的。
稍微整活的,量子位觀察到有“爹味言論打分”,能幫用戶有力回擊討厭的PUA說教。
再玄學一點,還有具備諸如MBTI 16人格分析、塔羅牌占卜的等等……
總之,大夥玩兒得不亦樂乎。
但由於現在仍然有3小時50條的限制,不少網友無奈感慨,玩GPTs,很容易每日觸發這個數量限制。
不過也有網友仍持有保留態度,認為這會像此前ChatGPT出場即巔峰,而後會逐漸歸於平靜期。
與此同時,馬斯克旗幟鮮明表達對GPTs的態度,那就是對GPTs的不 屑 一 顧。
他直接引用奧特曼用GPTs手搓Grok的Twitter,不客氣地把“GPTs”解讀為“GPT-Snore”。
作為另一款大模型Grok的背後老板,一貫嘴炮全開的馬斯克如此陰陽怪氣,好像並不太稀奇。
最令人睜大眼睛的,還得是前天——也就是OpenAI被黑客攻擊的那一天,微軟一度禁止員工使用ChatGPT。
是的沒錯,微軟,OpenAI最大合作夥伴、股東,禁止員工訪問ChatGPT。
據悉,微軟在其內部網站上寫道:
出於安全和數據考慮,員工今後將無法使用部分AI工具。
什麼AI工具呢?點名的就是ChatGPT和設計網站Canva。
而後,ChatGPT在微軟員工的內部設備上被屏蔽。
不僅如此,微軟當時還表示,雖然咱確實投資OpenAI,但對於微軟人來說,ChatGPT是第三方工具。
員工使用時應當慎之又慎,就像大夥兒使用Midjourney等外部AI工具時一樣。
不過這個禁止令並沒有持續太久。
很快,員工對ChatGPT的訪問已經恢復,並且官方聲明稱,這隻是一次美麗的誤會,but還是推薦大傢用Bing(doge)。
我們正在測試LLM的終端控制系統,無意中面向所有用戶開啟該選項。在發現錯誤後不久,我們恢復服務。> >正如我們之前所說,我們鼓勵員工和客戶使用Bing Chat Enterprise和ChatGPT Enterprise等具有更高級別隱私和安全保護的服務。
不知道是不是為打破外界“貌合神離”的傳言,奧特曼還親自發個Twitter,證明OpenAI並沒有因為這個事件產生心理波動,傳言的OpenAI因此禁用Microsoft 365作為回擊更是無稽之談。
但這一系列事件說來說去,繞不開“隱私”“數據安全”還是這個議題。
也就是說在現在,不僅僅是巨頭、公司發現使用ChatGPT/GPTs有“內部數據共享”的隱患,如上文提到的,創業者、開發者甚至普通用戶,也發現這個問題擺在面前。
因此新一輪的討論就此如火如荼地展開:
如果任何用戶在GPTs上傳的數據、文檔等不能保證私有性,該怎麼邁出商業化的下一步呢?
對於想要打造ChatGPT時代“App Store”的OpenAI來說,這似乎並不太妙。
但一切剛剛開始,不妨看看OpenAI的後續補救措施,讓子彈再飛一會。