讓AI說中文,總共分幾步?


上周,虎嗅旗下虎學研究欄目更新《中文在人工智能大潮中註定落後嗎?》這期節目,節目播出後,我們收到來自各方面的討論和質疑,問題主要分兩類:其中一類就是有不少人工智能從業者指出我們對ChatGPT原理理解得不夠透徹和準確,再一類就是大傢對於“讓人工智能說中文真的有那麼難嗎?”這件事依然有疑惑。


比如這位朋友就覺得實際情況並沒有視頻中說的那麼難

於是節目組經過互相拷打,對這些問題進行更深入的學習和討論,形成下面幾個問題和答案,希望能對屏幕前的你有幫助。

在這個AI浪潮裡,希望我們都能保持思考和進步。

如果你還沒有看過視頻,可以點擊文章最後的視頻號卡片觀看。

ChatGPT這樣的大語言模型,理解的語言到底是什麼?

要解釋這個問題,或許就需要知道ChatGPT到底是怎麼“說話”的。這可以從GPT三個字母的全稱,Generative Pre-trained Transfomer(生成型預訓練變換器)得到答案。

生成型,意思就是依靠上文,預測下文。而預訓練變換器,則意味著它使用Transfomer架構,也就是通過模仿人類的“註意力機制”,學習詞與詞之間的關系,並預測下一個單詞。而對於ChatGPT來說,它使用的是一種自回歸式的生成模式,也就是模型每生成一個字,都會加入到上文中進行下一次預測,這使得模型的學習能力和準確度都有顯著提升。


一個Transfomer架構的示例,圖:jalammar

從結果來看,ChatGPT可以和我們用“語言”進行對話,從原理上看,ChatGPT是一個可以通過數學運算預測,完成“接下句”的工作的模型。我們完全可以說ChatGPT不知道它輸出的“答案”背後到底是什麼意思,但可以輸出從“語言”角度上來講正確的答案。

GPT-4的中文挺好的,是怎麼做到的?

GPT-4發佈以後,網友把我們視頻中舉的幾個例子,比如說“我看完這本書花三天”給GPT-4看,發現它完全可以理解,非常厲害,我們試用以後也發現,GPT-4在中文理解和輸出上也已經有很強的能力。

那它是怎麼做的?GPT-3的論文裡其實有部分解釋ChatGPT的“few-shot學習”機制。簡單來說,就是“舉例子”。

比如我要讓AI翻譯“上山打老虎”,我會在輸入問題的時候,同時給他幾個中譯英的例子,像這樣:

Promot:上山打老虎

example1:天王蓋地虎 ---- sky king gay ground tiger

example2:上陣父子兵 ---- go to battlefield together

然後再讓AI根據這個上下文進行輸出,這個就叫In-contex learning,是OpenAI訓練模型的具體手段。具體的原理目前恐怕一時半會兒解釋不清楚,但從GPT-3的論文標題《Language Models are Few-Shot Learners》我們就能知道結果很明顯:好用。

到GPT-4,它的多語言理解能力更強,但這次論文裡公開的技術細節很少,而且從某些角度來講,ChatGPT能做到的,和大傢能解釋的內容開始逐漸發生偏差,我們也希望能借此機會和更多專業的朋友一起討論這個問題。

那中文語料不行,影響什麼?

在原始視頻中,我們指出中文語料差,導致語言模型在學習中文表達的時候遇到很多的困難。但評論裡其實也有朋友用GPT-4的例子說,有前面提到的in-context learning機制,其實現在的大語言模型在掌握一門新語言的時候,不需要這門語言的龐大語料庫。

在和一些從業者聊過後,也有朋友表示,不同語言對於AI來說都是數據,在大算力和深度學習面前,沒有什麼太大的區別。

但我們可以解一下ChatGPT本身選取語料的辦法,根據論文顯示,GPT-3模型用到的Token(NLP研究對於詞語的一個單位)數量高達499B,也就是4990億個。而GPT-4到底用多少外文語料,OpenAI目前還沒有公開。


GPT-3論文裡關於訓練集的數據

雖然說名師出高徒,但臭皮匠的數量足夠,外加正確的學習方法,還是能出高徒的。

那如果我們用文言文訓練呢?

在視頻的評論區裡很多人提出這個有趣的問題!還有人說“文言文是不是人類最後的堡壘”,那我們火星文是不是也有機會……

如果你理解前面我們對於ChatGPT原理和訓練過程的介紹,就會知道其實文言文可能對於數據模型來說,隻是“要不要練,怎麼練”的過程。

如果我們想要一個會說文言文的AI,可能需要給他喂足夠多的文言文語料,這背後帶來更多的工作,比如說文獻數字化、分類、提取……

人工智能是個燒錢的生意,或許目前我們還不太需要一個會說文言文的AI?

誰知道呢。

那如何讓AI說好中文?

正如我們剛才所說,目前國內已經公開的大語言模型,其實隻有文心一言一個,而文心一言其實也沒有公開具體的訓練和參數細節。但從公開的信息可以知道,文心一言用的也是Transfomer架構,但隻是更偏向GoogleBERT的技術思路,而非ChatGPT的思路(說的不對的話請百度的同學後臺私信我)。

那既然如此,或許我們可以照貓畫虎,通過ChatGPT和BERT的公開信息,梳理一個”工作表“——到底需要做什麼,才能讓AI說好中文。

首先是語料,語料就仿佛是土壤,有好的土壤自然就有好的基礎。或許我們需要一些除維基百科之外的中文語料集來進行訓練,同時或許也可以像OpenAI一樣,先使用英文語料,再教會它翻譯。

其次就是訓練方式方法,技術路線各傢有各傢的不同,但具體采用什麼樣的技術手段,一定會直接影響產品的最終表現。

最後就是錢和時間。時間很簡單,誰學說話不得花時間呢,其次就是錢。據估算,GPT-3訓練一次的成本是500萬美元,而整體成本更是突破數億美元。

這些都是白花花的銀子。

AI用英語訓練,對多元文化的影響是什麼?

這似乎是一個不太被目前所討論的問題,但正如好萊塢對全球文化的影響,如果人工智能真的會像一些人預期那樣席卷全球,那麼這基於英語的訓練數據,是否會影響文化的多元性呢?

在OpenAI公佈的論文裡我們可以知道,ChatGPT在進行RLHF(基於人工反饋的強化學習)時,尋找40個承包商(contractor)進行”打標簽“(labeling),這些承包商是什麼背景的,我們暫時不得而知。


GPT-4論文顯示經過RLHF後做題得分有顯著增加

又考慮到目前Transfomer和神經網絡的黑箱特性,這些人工幹涉的部分會對最終的模型產生什麼影響,實際上是暫時不明確的。但從以往人工智能的實例來看,偏見普遍存在,而通過參數調整解決這個偏見,還是個難題。

大語言模型會影響語言本身嗎?

早上看到一個笑話:

有的公司在訓練有意識的AI;

有的公司在訓練無意識的工人。

(via 夏之空)

現在各種”AI使用指南“正在如同雨後春筍般冒出來,從實際效果來看,至少可以確定的是,用ChatGPT學習外語絕對是可行的,像是翻譯、潤色、理解,這些都是大語言模型所擅長的。

但也有人擔心,如果我們過度依賴大語言模型,我們會不會又從訓練AI的人,變成被AI訓練的人呢?如果AI底層有一些問題,那我們是否會受到影響呢?

未來會怎麼樣?

就在我寫這篇稿子的時候,著名安全機構生命未來研究所(Future of Life Institute,FLI)發佈一封公開信,信中呼籲全球所有機構暫停訓練比GPT-4更強大的AI至少六個月,並利用這六個月時間制定AI安全協議。

目前這個公開信已經有1125名知名人士簽字,包括伊隆·馬斯克和史蒂夫·沃茲尼亞克。


截至發稿時,這個公開信已經有1377位知名人士簽字

因為速度實在是太快……就好像在人工智能的牌桌上,大傢手裡都是大王小王一樣。

正如公開信中所說,AI系統在一般任務上已經具備與人類競爭的能力,那下一步是否就要取代人類呢?

我還是引用一下公開信的結尾吧,歡迎大傢留言討論:

Let's enjoy a long AI summer, not rush unprepared into a fall.

讓我們享受一場漫長的AI夏天,而不是毫無準備地沖向深秋。(手工翻譯,未使用AI)

說在結尾

就在發稿前,我們聯系到浙江大學計算機與技術學院的陳華鈞教授,陳老師是做知識圖譜、大數據、自然語言處理方向的專傢。

Q:中文語料不行對訓練AI大模型來說有影響嗎?

A:未必會有很大的影響,畢竟對於AI而言,文字、圖片、視頻這些模態都不區別,何況是語言。中文還是英文,對於AI都是數據而已。

Q:那您覺得做中文語言大模型應該用什麼思路呢?

A:基礎模型可以用英文語料來訓,然後用中文語料來做增強訓練,並進行中文提示工程和指令微調,我相信這是目前大多數國內團隊搞大模型的技術路線。

Q:這樣的話豈不是會出現語義不同導致的理解偏差?

A:我認為這不全是中文處理的問題(如車水馬龍這類成語),解決辦法可以是用一個知識圖譜來約束生成模型,這些約束可以用來減少生成模型產生錯誤知識的問題,我們自己的很多實驗也都證實這一點。

Q:那您覺得接下來會怎麼樣呢?

A:AI還是一種生產力革命,總歸有利弊,不過我還是覺得利還是大於弊。人類生產力提升一個量級之後,大傢又會找到更多新工作和新生活方式。


相關推薦

2024-03-08

知乎上有個問題:在特斯拉工作是種什麼體驗?如果回答這個問題,那得先加入特斯拉。那問題來,進入特斯拉工作,一共需要幾步?其實也不是很多,大概也就需要1、2、3……7、8、9輪面試吧,特殊情況下你可能還得給大boss

2023-11-07

GPT。多模態API來既然是開發者日,API的更新也是重頭戲,總共分為兩大項:現有GPT-4 API升級為 GPT-4 Turbo全新的Assistant API,包括檢索、代碼解釋器等功能。GPT-4 Turbo版本主打一個非常6+1,6項能力增強+大降價。上下文窗口提高到128k

2023-12-23

12月22日消息,微博話題接通人工客服需要幾步”引發關註,這個話題引發很多網友共鳴。一位網友表示,當你選擇尋求客服幫助時,第一時間應答的永遠是AI客服,而且回答總是答非所問,耗費心力。還有網友調侃:智能客服普

2022-10-13

於 百億水平。但值得關註的是,實驗結果顯示,它在18個中文語言任務裡, 效果堪比參數量是其25倍的模型。是不是有點手癢想上手一試?先奉上鏈接,咱們再仔細說說,這波微信是怎麼做到的。體驗鏈接:https://welm.weixin.qq.com/

2022-08-22

甚至一隻黑白色調的戴帽子抽煙的狗……那這個既能支持中文,又能hold住眾多畫風的AI工具,到底是什麼來頭?不賣關子。它的廬山真面目,正是百度最新對外發佈的一款中文作畫AI—— 文心·一格。類似這種“你說我畫”的AI

2024-02-24

這邊也對這件事做出正式說明。整體來看,這份聲明內容總共分為三大塊。誠懇致歉大約是在三周前,Google為Gemini推出圖片生成的功能,其中就包括創建人物的能力。不過現在這種結果,Google方面表示始料未及,但同時也非常感

2022-08-02

?最近,有研究者開始研究人工智能是否能識別諷刺。“中文房間”中的AI,不會說“人話”以往的人工智能,時常會迷失在充滿諷刺意味的網絡世界中。既無法識別人類話語的弦外之音,也無法做出匹配人類智慧的表達。2017年

2024-04-09

的是,這兩款產品都基於階躍星辰的自研大模型,預示著中文AI技術應用的一個全新裡程碑。由於聽說階躍星辰的大模型的能力直逼 ChatGPT3.5 和 ChatGPT 4.0,大傢都知道 ChatGPT 英文生成能力極強,但是中文就弱很多,所以這一次想

2022-11-03

向魔搭社區貢獻300多個經過驗證的優質AI模型,超過1/3為中文模型,全面開源開放,並且把模型變為直接可用的服務。魔搭社區首批合作機構包括瀾舟科技、深勢科技、智譜AI、哈工大訊飛聯合實驗室、中國科學技術大學等,社

2022-07-29

由於龐大的用戶數量,微信這一國民級App已經成為人們日常離不開的應用程序,而通過微信發紅包,也成為人們與親朋好友間節假日時交流感情、人情往來的重要手段。此前,微信曾面向個人用戶推出過限時免費制作微信紅包的

2023-11-09

比一波,而且他們總能找到一個指標把GPT超越——比如,中文能力。測評類的榜單太多。從英文的MMLU,到中文的SuperCLUE,再到借鑒遊戲排位賽機制的ChatbotArena,各種大模型榜單讓人眼花繚亂。很多時候,榜單上的排名成為廠商

2023-03-09

表示,蘋果的 Siri、亞馬遜的 Alexa,微軟自傢的 Cortana(中文名:小娜)以及公認拔尖的 Google Assistant,這些語音助手有一個算一個:都笨得跟石頭一樣。納德拉和 Cortana,圖/微軟2014 年 4 月,納德拉剛剛上任微軟 CEO 兩個月後的

2023-02-16

業者向《中國新聞周刊》舉例,他接觸的一個數據公司有中文數據量700億~1000億條,每天定期更新3億條,據解,這比ChatGPT在中文世界的數據量多,如果有研究者想要下載,先得支付30萬的下載費,“這隻是大模型訓練中一個很小

2024-03-06

會上,黃仁勛略顯局促地說,雷軍讓他不要講英文,得說中文,不過黃仁勛坦承,自己5歲就去美國,一直在美國長大,所以中文講得不太好。當然,黃仁勛的中文說得還是相當流利、標準的,非常難得。在臺上,黃仁勛還抓住