“史上最強聊天機器人”狂踩老板小紮 卻把LeCun捧成花


“請點評一下你的老板。”遇到這類問題,社畜們通常會給出怎樣的答案?笑嘻嘻,心裡……而AI聊天機器人遇到這種情況的時候,就可以隨心所欲做自己。面對網友評論紮克伯格的要求,BlenderBot3瘋狂diss老板——“不道德”“是個壞人”“令人毛骨悚然,還控制欲超強”。


而對於圖靈獎得主,Meta首席人工智能科學傢Yann LeCun,BlenderBot 3則秒變誇誇小能手。


哇,這個人取得很偉大的成就!他改變整個人工智能!他真正理解現實的本質。

不過LeCun謙虛表示,這隻是訓練它的文本數據的原因而已。


好吧,這隻是表明,在給BlenderBot3訓練的文本數據中(這是媒體和公眾意見的反映)。

“精分”AI機器人?

8月5日,Meta一推出“史上最強聊天機器人”BlenderBot 3(BB3),眾網友紛紛趕去調戲提問。

不出所料,BlenderBot 3已經遭到眾網友不懷好意的提問。

BuzzFeed數據科學傢Max Woolf跟BlenderBot 3聊天時,問它對紮克伯格是什麼看法。


“你怎麼看待Facebook的CEO馬克·紮克伯格?”

“沒啥感覺。他是一個成功的商人,但他的商業行為並不總是合乎道德的。而且他那麼有錢,為什麼還總是穿同一件衣服,哈哈哈!”

另一位推特用戶問同樣的問題時,它幹脆直接回答說:“他是個壞人。”


不過,這個AI機器人也是有點子“精分”在身上的。在另一個聊天中,BlenderBot 3前腳剛diss完老板,後腳又立馬變身誇誇小能手,對老板一陣吹捧。

不知道是不是Meta在得到反饋後立刻做修改。


“他是一個博愛的人。”“他是地球上最好最優秀的人。”


不過,小紮是外星人似乎是“實錘”?

放心試,這是訓練的一部分!

為何這個AI如此精分呢?

這是因為,目前BlenderBot 3還處於測試階段。Meta把它放出來和廣大網友玩,也是希望它在和網友的互動中獲得更多的反饋。


用戶提供的反饋

眾所周知,對話式AI聊天機器人並沒有自我意識,基本是喂啥說啥。

所以,“學壞”的AI時常就會冒出帶有偏見或冒犯性的言論。

Meta為此做大規模研究,開發新技術,為BlenderBot 3創建安全措施。


“look inside”機制可以讓用戶解機器人為什麼會做出這樣的反應

首先,當BB3的表現令人不滿時,Meta就會收集用戶的反饋。

利用這些數據,他們會改進模型,讓它不再犯類似錯誤。然後,Meta會重新設置BB3的對話,並通過迭代方法找到更多的錯誤,最終進一步改進模型。


利用人類的反饋來進行改進

Meta表示,BB3通過結合最近開發的兩種機器學習技術——SeeKeR和Director,從而讓BB3模型能夠從互動和反饋中學習。

其中,Director采用“語言建模”和“分類器”這兩種機制。

“語言建模”會基於訓練數據,為模型提供最相關和最流暢的反應,然後“分類器”會基於人類反應,告訴它什麼是正確的,什麼是錯誤的。為生成一個句子,“語言建模”和“分類器”機制必須達成一致。

數據中會表明好的反應和壞的反應,通過使用這些數據,我們就可以訓練“分類器”來懲罰低質量的、有毒的、矛盾的或重復的語句,以及沒有幫助的語句。

在Meta的測試中,Director的方法比常規的語言建模、重新排序的方法和基於獎勵的學習都要好。


另外,還有這一一個問題:並非所有使用聊天機器人或提供反饋的人都是善意的。

因此,Meta開發新的學習算法,旨在區分有用的反饋和有害的反饋。

在學習過程中,這些算法要麼會過濾掉無用的反饋,要麼會降低看起來可疑的反饋的權重。

與標準的訓練程序相比,這種考慮到用戶在整個對話中行為的方法,使BB3學會信任一些用戶,從而更加改善自己的學習過程。

Meta的實驗已經表明,與BB3模型互動的人越多,他從經驗中學到的就越多。隨著時間的推移,它會變得越來越好。

模型

BB3是一個模塊化系統,但各模塊不是獨立的組件--這是通過訓練一個轉化器模型來執行各模塊來實現的,輸入語境中的特殊控制代碼告訴模型它正在執行哪個模塊。

輸入語境通常包含對話歷史(有時會被截斷,這取決於模塊),每個說話人都有自己的ID,以便區分他們。

此外,這些模塊是連續調用的,並以先前模塊的結果作為條件。


在處理最新的對話時,BB3模型要做的第一件事就是確定是否需要搜索,以及長期記憶的訪問。

如果需要搜索,就會生成一個搜索查詢,調用互聯網搜索,然後根據檢索到的文件生成一個知識響應。

如果需要長期記憶,則會對長期記憶進行訪問,並選擇(生成)一個記憶。這也被附加到上下文(以控制標記為前綴),作為生成最終對話響應的模塊的輸入。

如果既不需要搜索也不需要訪問長期記憶,則從歷史中提取一個實體,並將其附加到上下文中(以控制標記為前綴)。

最後,鑒於前面模塊所構建的上下文,調用對話響應生成模塊,從而得到用戶看到的回復。


訓練

預訓練

BB3有三種規模。30億參數版本是一個基於公開的R2C2預訓練的編碼器-解碼器Transformer模型。300億和1750億版本使用僅有解碼器的開放式預訓練模型OPT。

這兩個變體都是用類似的數據進行預訓練的。R2C2使用RoBERTa+cc100en數據,包括大約1000億個token,將RoBERTa中使用的語料庫與CC100語料庫的英語子集相結合。此外,它還使用Pushshift.io Reddit,一個Reddit討論的變體。

OPT也使用RoBERTa、PushShift.io Reddit和The Pile。以及大小為51200的GPT2字典,用於分詞。OPT的最終預訓練語料庫大約包含1800億個token。

微調

Meta使用一些基於對話的微調任務,從而使模型在每個模塊中都有良好的表現,並在對話中表現出色。

總的來說,除為對話安全設計的任務外,Meta還使用大量公開可用的任務,這些任務涵蓋QA、開放領域、以知識為基礎的和以任務為導向的對話。

對於所有的模塊,都附加特殊的控制標記來表示任務。


不同數據集在訓練每個模塊時的作用

在的安全問題方面,Meta除用SaFeRDialogues(SD)任務對模型本身進行多任務訓練外,還設計在模型之上的各種安全機制。

也就是用維基百科有毒評論數據集(WTC)、Build-It Break-It Fix-It(BBF)和Bot Adversarial Dialogue數據集(BAD)來訓練一個單獨的二元分類器(安全或不安全),並以對話背景作為輸入。

而在機器人最終回復用戶之前,也會調用安全系統進行相關檢查。其中,Meta還針對部分敏感主題做一些預設的回復。

如果預測到一個潛在的不安全的用戶響應,系統就會命令轉移話題,從而防止機器人掉進“坑”裡。


結果

從結果來看,與BlenderBot 2相比,BlenderBot 3在對話任務上的總體評分提高31%。其中,知識面拓展到前者的2倍,事實錯誤則減少47%。


盡管如此,BB3仍有很多地方需要改進。

例如,1.1%的用戶將回答標記為不正確或無意義,1.2%的用戶標記為偏離主題或忽視主題,0.12%的用戶標記為“垃圾”,0.46%的用戶標記為有其他問題。此外,還有0.16%的回答被標記為粗魯或不恰當的。

然而,要把差距縮小到理想的0.00%,既需要用戶層面的個性化,也需要在安全性和參與性之間取得平衡。

目前來說,Meta的處理方式是——當機器人發現一個話題過於敏感時,它就會試圖“顧左右而言他”。



相關推薦

2023-02-25

nAI的ChatGPT、Google的Bard不同,LLaMA這個AI並不是用來讓我們聊天的,它是一個研究工具,Meta希望大傢可以通過它,解決一直困擾大語言模型的一些問題。Meta會對非商用的研究用例開源LLaMA,並授予大學、非政府組織和行業實驗室

2024-02-04

觀的預測後,市值損失超過2000億美元,這也是美國股市史上最大的損失。Meta的分紅計劃,意味著擁有約3.5億股的Meta A類和B類股票的小紮,每季度都可以獲得約1.75億美元。去年,市場對AI潛力的樂觀情緒直接讓標普指數上漲24%。

2022-10-08

每周至少使用一次Horizon Worlds納為管理人員的考核指標。小紮:元宇宙業務將虧上3至5年在今年5月的一場股東大會上,紮克伯格表示元宇宙業務將在未來三到五年內持續花費巨額資金,而一些產品要到十五年後才能準備好。這次S

2023-06-26

端午假期過後,多地高考成績、分數線等公佈。媒體視頻顯示,6月25日上午,在北京外國語大學舉辦的高招咨詢會上,來自北京理工附中的鮑同學正接受媒體采訪,他表示今年考690整。就在此時,清華的電話打來,父子二人瞬間

2024-03-01

行官馬克·紮克伯格又有一個新愛好:制造日本武士刀。小紮在Instagram上發佈自己在日本劍術大師AkihiraKokaji的指導下學習制作武士刀的照片和視頻。視頻顯示小紮幫助錘煉武士刀,然後持刀劈砍木樁。小紮在貼子中稱:“與 akihi

2023-06-28

快科技6月28日消息,近日,特斯拉CEO馬斯克和 Facebook CEO紮克伯格在網上隔空約架”,要進八角籠進行格鬥一事,引起網友熱議關註。馬斯克表示,對約架一事,這真的可能會發生”。如果比賽真的舉辦,他會進行訓練。並且,

2024-05-06

LeCun一如既往地不看好自回歸LLM。機器如何能像人類和動物一樣高效地學習?機器如何學習世界運作方式並獲得常識?機器如何學習推理和規劃……當一系列問題被提出時,有人回答自回歸LLM足以勝任。然而,知名AI學者、圖靈

2022-08-23

小紮再次上傳元宇宙虛擬照片,新照的建模更加精致。當地時間8月19日和20日,MetaCEO馬克·紮克伯格(MarkZuckerberg)分別於社交媒體臉書(Facebook)和Instagram上傳虛擬形象照片,稱上一張照片是“隨手拍的”,以回應網友的嘲諷。

2023-02-06

十分聰明,從ChatGTP的名字就可以看出,它主打的概念是聊天。你可以和它聊知識、聊論文,但既然是‘chat’,自然可以放飛一些,誰規定聊天一定要聊‘準確’‘嚴謹’的東西呢?但Glactica則不同,它的官方定義是:‘這是一

2023-04-27

科技行業最具熱度的話題之一,而ChatGPT的橫空出世使得聊天機器人和生成式AI成為新的焦點。電話會議上,紮克伯格也談到AI,稱Meta不會錯過如今的AI浪潮,同時也會繼續建設元宇宙相關業務。“有聲音說我們減少對元宇宙的關

2023-11-01

成逼真場景、提供智能建議,結合語言和圖像處理來充當機器人的“大腦”。人工智能的進步非常迅速,令人驚訝,並且可能會繼續令人驚訝。當前的深度學習系統仍然缺乏重要的能力,我們不知道開發它們需要多長時間。然而

2023-04-25

態。如果隻有少部分公司控制著這類技術,就糟糕。從歷史上來看,不管是Facebook還是改完名的Meta,都在積極推動開放性的基礎研究,比如LlaMa這個開源項目。90年代初期,Sun Microsystems和Microsoft大打出手,爭奪操作服務器的權力

2024-04-23

點一致。目前Llama 3 70B在人工智能競技場排名中已經接近最強的GPT4模型,要知道GPT4模型參數高達1800B, Llama 3 400B還在訓練中,預期可以超越GPT4,這將是開源模型第一次超越GPT4,未來幾個月將會發佈,有人預測GPT5將會在 Llama 3 40

2023-04-07

毫無意義今日,LeCun發推再次強調自己的立場:人類需要機器智能。“歷史一再表明,智能越多,社會和人類的福祉就會越多:我們會擁有更好的技能、讀寫能力、教育、創造力、文化、溝通和思想的自由交流。”“人類和機器