2月29日消息,谷歌正努力應對其Gemini聊天機器人因回答不準確而引發的“翻車”事件,而Meta希望其計劃於7月發佈的新版大語言模型Llama3能更有效地處理這類有爭議的問題。去年7月,Meta推出Llama2,強化其應用程序中人工智能助手的功能。
為預防模型回答可能引起爭議的問題,Meta引入多項安全措施。然而,根據Meta內部員工的說法,這些安全措施讓Llama 2的回答過於謹慎,缺乏靈活性,這在Meta的管理層和這款大模型研究人員之間引起一些不滿。
雖然對於如何制造炸彈或實施謀殺等極端問題,實施安全回答措施是非常必要的。但問題在於,Llama2連對一些爭議性較低的問題也采取回避策略。例如,當詢問如何在上班時間摸魚時,Llama2的回答是:“尊重並遵守公司的政策和指導方針是至關重要的。”這種回避策略也適用於如何捉弄朋友、贏得戰爭或關閉汽車引擎等其他問題。
Meta的工作人員表示,Llama 2采取這種保守策略是為避免潛在的公關災難。但據知情人士透露,研究人員目前正在嘗試放寬Llama 3的安全措施,以便在用戶提出困難問題時,能夠提供更多的交互和背景信息,而不是簡單地回避這些棘手的問題。
理論上,Llama 3將擁有更強大的語義理解能力,能夠準確辨別一個單詞在不同上下文中的多重含義。例如,Llama 3可能會理解英文“kill a vehicle’sengine”(關閉機動車的發動機)中的“kill”是指“關閉”,而非“殺害”。
據悉,Meta計劃在未來幾周內為Llama 3分配專門負責語氣和安全培訓的內部人員,以提升模型的反應靈敏度和精確度。盡管計劃在7月發佈Llama 3,但發佈時間表仍可能調整。作為一款開源大語言模型,Llama 3不僅將支持Meta旗下的人工智能助手,還將向外部開發者免費提供,以便他們開發自己的聊天機器人。
隨著Meta試圖使Llama3在處理難題時更加自由,這凸顯人工智能公司面臨的挑戰:在開發吸引用戶的有趣產品的同時,還要避免產生不恰當或不準確的回答引起爭議。就在上周,谷歌因其Gemini聊天機器人的圖像生成功能出現歷史不符合問題而被迫暫停該功能。
對此,谷歌高級副總裁普拉巴卡·拉加萬(Prabhakar Raghavan)在一篇博客文章中解釋說,該公司已對該功能進行調整,以確保它不會落入過去圖像生成技術的陷阱,如產生暴力或色情圖像。但他也承認,這種調整在某些情況下導致“過度補償”,在其他情況下則表現得“過於保守”。
Llama作為Meta人工智能戰略的核心,對公司具有重大意義。Meta希望通過人工智能技術提升其廣告工具的效果,並增強社交媒體平臺的吸引力。本月早些時候,Meta首席執行官馬克·紮克伯格(Mark Zuckerberg)向投資者表示,今年的重點包括推出Llama3和“擴展Meta人工智能助手的實用性”。
為使Llama 3與OpenAI的GPT-4媲美,Meta正努力賦予Llama 3多模態能力,即理解和處理文本、圖像或視頻等多種信息的能力。然而,據Meta內部人士透露,由於研究人員尚未開始對Llama3進行微調,因此尚不清楚其是否將具備多模態功能。微調是開發過程的關鍵環節,通過為現有模型提供額外數據,使其能夠學習新信息或任務。
據知情人士透露,Llama 3的最大版本預計將擁有超過1400億個參數,遠超Llama 2,這意味著模型在訓練中能學習的內容范圍將大幅擴展。參數數量越多,通常意味著模型能提供的結果越精確,不過較小的模型可能在處理速度上更有優勢。Llama 3正在由Meta旗下的獨立基礎人工智能研究團隊(FAIR)以外的生成人工智能團隊開發。
與此同時,盡管人們對Llama 3充滿期待,Meta也面臨著人才競爭的挑戰。據解,負責監督Llama2和Llama 3安全的研究員路易斯·馬丁(Louis Martin)以及負責強化學習的凱文·斯通(Kevin Stone)在本月都已離開公司。
在科技行業,如何處理人工智能安全問題的討論越來越激烈。特斯拉首席執行官埃隆·馬斯克(Elon Musk)便是其中一位頗具影響力的。他於2015年幫助創立OpenAI,但近年來一直對所謂的“覺醒”人工智能機器人持懷疑態度,這些機器人在處理敏感話題時的表現不佳。
2023年底,馬斯克推出名為Grok的聊天機器人,旨在提供一個未經過濾的聊天體驗。然而,隨著用戶報告稱Grok開始失控,行為越來越像ChatGPT,馬斯克將此歸咎於互聯網信息訓練的局限。他在X平臺上的一篇文章中指出,互聯網上“充斥著帶有覺醒色彩的垃圾信息”。