如果你還需要更多證據來證明GenAI容易胡編亂造,Google的雙子座聊天機器人(前身為Bard)認為2024年的超級碗已經舉行過。它甚至還有虛構的現場技術統計數據來證明這一點。
在 Reddit 上,由Google "Gemini"GenAI 模型驅動的正在回答粉絲們有關第 LVIII 屆超級碗的問題,就好像比賽是在昨天或幾周前結束的一樣。和許多博彩公司一樣,它似乎更看好酋長隊而不是 49 人隊(抱歉,舊金山的球迷們)。
Gemini的胡編亂造頗具創意,至少有一次給出的球員數據明細顯示,堪薩斯州首席四分衛帕特裡克-馬霍姆斯(Patrick Mahomes)跑 286 碼,達陣 2 次,攔截 1 次,而佈洛克-珀蒂(Brock Purdy)跑 253 碼,達陣 1 次。
圖片來源/r/smellymonster
不隻是Gemini。微軟的Copilot聊天機器人也堅稱遊戲已經結束,並提供錯誤的引文來支持這一說法。但是,也許是出於對舊金山的偏見,它說 49 人隊而不是酋長隊取得勝利!- 它說"最終比分為 24:21",獲勝的是 49 人隊,而不是酋長隊。
圖片來源:Kyle Wiggers / TechCrunch
Copilot采用的 GenAI 模型與 OpenAI 的 ChatGPT(GPT-4)模型相似,甚至完全相同。不過,ChatGPT 似乎要聰明點,沒有在同一個地點翻車兩次。
這一切都相當愚蠢,但這也說明當今 GenAI 的主要局限性,以及過於信任它的危險性。GenAI 模型沒有真正實現人工智能。這種文本模型通常從公共網絡上獲取大量的示例,根據這些示例的模式(包括周圍數據的上下文)來學習數據(如文本)出現的可能性。
這種基於概率的方法在一定范圍內效果顯著。不過,雖然單詞的范圍及其概率很可能會產生有意義的文本,但這還遠不確定。例如,LLM 可以生成語法正確但毫無意義的內容,也可能大放厥詞,傳播訓練數據中的錯誤。
超級碗賽事的虛假信息當然不是GenAI走火入魔的最有害的例子。這可能與支持酷刑、強化民族和種族成見或令人信服地撰寫陰謀論有關。不過,這也是一個有用的提醒,提醒我們仔細檢查 GenAI 機器人的言論。它們很有可能不是真的。