在過去24個小時內,ChatGPT與現實社會的碰撞又出現新的案例:媒體們發現機器人不僅會“胡說八道”,而且會告訴使用者虛假信息來源於真實的媒體。上周的一個晚上,喬治·華盛頓大學法學院教授喬納森·特裡從律師朋友那裡聽到一個五雷轟頂的消息:在ChatGPT生成的一份“有性騷擾歷史的法學學者”名單中,他的大名赫然在列。
OpenAI的對話機器人“聲稱”,《華盛頓郵報》於2018年3月發表的一篇文章中提及,特裡在一次前往阿拉斯加的修學旅行中不僅發表過性騷擾的言論,還試圖上手觸摸一名學生。但事實是,《華盛頓郵報》根本沒發過這篇文章,也不存在阿拉斯加修學旅行,特裡更是從來沒有被指控過性騷擾。
特裡接受媒體采訪時表示:“這真是令人不寒而栗,這種指控極具危害性。”
在ChatGPT展現驚人的科技進步後,微軟已經上架使用GPT-4.0的新必應,Google的對話式搜索引擎也已經箭在弦上。隨著措辭能力的提升,這些機器人時不時會出現“一本正經地胡說八道”,自信的語氣也令使用者更難分辨真實消息和虛假拼湊的流言。
在某些情況下,一些虛構的內容能令媒體記者本人都難以確信自己是不是真寫過相關內容。
英國《衛報》的編輯創新主管克裡斯·莫蘭周四(6日)撰寫文章,分享這傢媒體遇到的一件囧事。
(來源:衛報)
《衛報》的一名記者上個月收到研究人員的來信,稱他們在使用ChatGPT進行科研期間,機器人提到這名記者在數年前寫的一篇文章,但研究人員無論是在衛報網站,還是搜索引擎上都找不到原文,故來信詢問是否修改過標題或者撤稿。
雖然記者本人並不記得有寫過這篇文章,但機器人給出的標題又非常像他的寫作風格,而且提到的事件《衛報》的確曾涉獵過。最終報社動手對所有的報道記錄,特別是刪稿的部分進行回溯,最終才確定這篇文章根本就不存在。
目前對於AI搜索機器人“胡說八道”的問題,微軟等公司給出的解決方案是標註信息來源。但最新發現的現象也提出一個新問題:如果這些標註的來源本身就是虛構的呢?機器人瀟灑且連貫的文風連媒體從業者都無法輕松分辨真假,更不用說單純接受信息的用戶。
就在上周,又有一名學生聯系《衛報》詢問一篇報道的下落。不出意外,這又是一篇“不存在的報道”,而這一消息的源頭依然是ChatGPT。
更重要的是,在搜索引擎之外,微軟的Office 365和GoogleWorkplace也已經把AIGC功能列為即將上架的重要功能。同時一項千人調查顯示,89%的美國學生已經用上ChatGPT做傢庭作業。多項早期研究顯示,廣告、咨詢、編程工作者在使用ChatGPT後工作效率的提升能夠達到50%,同時工作質量也會更高,預示著AIGC功能被大規模應用隻是時間問題。
種種跡象顯示,與Web3、元宇宙、區塊鏈等不同,這一輪AI浪潮已經展現出重塑許多工作流程的巨大潛力,推動比爾·蓋茨、拉裡·佩奇等一眾已經退休的科技大佬火速重返一線。
莫蘭表示,對於已經飽受虛假消息、極端化和惡意行為者影響的傳媒行業來說,AIGC技術帶來令人興奮的潛力,但首要任務依然是理解、評估並解讀它對更廣闊世界的影響。《衛報》準備在接下來幾周時間裡向外界披露這傢媒體將如何部署生成式AI的計劃,同時將堅持報道的標準,為所發佈的每一條消息負責。