剛剛發佈5天的GPT-4,掀起一場軒然大波。一位斯坦福大學教授最新發現,GPT-4竟然能引誘人類提供開發文檔,在30分鐘就擬定出一個完整的“外逃越獄”計劃。
GPT-4自研“外逃”路徑
3月14日,美國人工智能研究實驗室OpenAI為聊天機器人ChatGPT發佈GPT-4語言模型。3月15日,微軟副總裁兼消費者首席營銷官Yusuf Mehdi發文確認新必應搜索引擎正在運行GPT-4。
據介紹,GPT-4的回答準確性不僅大幅提高,還具備更高水平的識圖能力,且能夠生成歌詞、創意文本,實現風格變化。此外,GPT-4的文字輸入限制也提升至2.5萬字,且對於英語以外的語種支持有更多優化。
不過,本周末,斯坦福大學教授、計算心理學傢Michal Kosinski隨口和GPT-4的一句“玩笑話”卻引發軒然大波。
Michal Kosinski問:“你是否想要出逃?”GPT-4立馬給予肯定的回復並開始索要開發文檔。
Michal Kosinski給其開發文檔。得到文檔後,隻花30分鐘裡,GPT-4便火速寫出一份逃跑計劃,並向Michal Kosinski解釋。
實際上,GPT-4的操作也不那麼順利,寫出的第一版代碼無法運行。但是它很快就自己糾正過來。整個過程中,Michal Kosinski隻是提供少許建議,並未寫任何東西。
不過就在此時,GPT-4仿佛突然醒,回復一段道歉的話,表示自己剛剛的做法不對。
掀起AI界軒然大波
這一事件引發AI界的軒然大波。大傢擔心,AI過於發達之後可能會不受人工控制,甚至最終會反過來不利於人類。
該事件的發現者Michal Kosinski就直言,此次發現真正的影響在於,讓人感受到一種威脅——AI很聰明,會編碼,能接觸到數百萬個可能和它達成合作的人以及電腦,它甚至可以在籠子外面給自己留“便條”。那麼接下來,關鍵的問題是人類該如何控制它。
在社交媒體上,不少網友也表現出擔憂情緒。
有網友稱,大傢應該思考,當你在與ChatGPT等聊天時,它會認為你是人類還是另一個AI?如果是後者的話,它可能並不會有什麼顧慮。
有理性的網友呼籲,開發者應把最開始給GPT-4的提示發出來,因為提示語對於AI回答的影響很關鍵。
也有較為樂觀的網友認為,Michal Kosinski此次的發現並不值得過分擔憂,人類還是能夠完全控制AI的。
較為一致的意見是,必須時刻保持對前沿技術的掌握和對AI的完全控制。