李開復、張亞勤對談:大模型產業化,To B、To C哪個賽道更有機會?


6月15日消息,在第六屆“北京智源大會”上,零一萬物CEO、創新工場董事長李開復博士,中國工程院院士、清華大學智能產業研究院(AIR)院長張亞勤院士、智源研究院理事長黃鐵軍教授,三位行業領袖大模型的成功因素、面臨的挑戰、產業化場景等多個熱點話題展開深入的討論。

以下為討論內容部分摘錄:

一、什麼原因使得大模型如此成功?

黃鐵軍:近期關於大模型的討論特別熱門,從剛才的報告大傢也感受到大模型的能量以及其在各領域的應用潛力,可以說大模型是至今為止人工智能發展最成功的一個技術方向。想請問兩位,是什麼原因使得大模型如此成功?還有哪些欠缺的地方需要進一步發展?

李開復:AI 2.0是有史以來最偉大的科技革命和平臺革命,大模型Scaling Law 的重要性在這個時代得以凸顯——人類能夠用更多計算和數據不斷增加大模型的智慧,這條被多方驗證的路徑還在推進中,還遠沒有觸達天花板,這點也讓大傢非常振奮。

第二,大模型的智慧來自於接近無損的壓縮,這點也非常重要。上世代的人工智能從業者很難想到今天會把壓縮和智能連接在一起。因為Scaling Law過程中不能盲目堆更多的GPU,所以需要有一個方法評估我們有沒有越做越好或者哪個方法做得更好。零一萬物內部有嚴謹的方法論,用壓縮的理念去評估,讓以往漫無目的“煉丹”訓模過程變得更系統也更有科學和數學根據。

大模型正面臨著一些挑戰。比方說,如果“僅僅用更多算力就能把它往前推動”是主要方向的話,就會導致隻有那些GPU資源豐富的公司和國傢能夠在這方面勝出。但話說回來,我們已經驗證,很多國內大模型在部分案例裡接近或者打平、或者偶爾超過美國的大模型。所以我認為需要專註的是算法和工程創新一體化的推進,以及怎麼以這種能力避免進入“盲目堆算力推動模型性能提升”的狀態。

當然,目前大模型還直面許多挑戰。就像每個技術剛誕生都會有問題,起初大模型也不知道最近一年發生什麼。還有記憶的問題、窗口構成的問題、幻覺問題等等,但我們可以看到的是,當全球如此多聰明的大腦湧入這個領域後,大部分問題不能說被完美地解決,但是都在逐步被攻克的過程中,所以我對大模型的未來相當樂觀。

張亞勤:我講“三個做對”的和“三個需要改進”的 。

“三個做對”的點是,首先,規模定律Scaling Law。規模定律的實現,主要得益於對海量數據的利用以及算力的顯著提升。再加上現在的Diffusion和Transformer架構能夠高效地利用算力和數據,使得“飛輪效應”得以正循環。盡管有人質疑Scaling Law在2到3年後是否仍然有效,但我個人認為至少在未來5年裡,它仍將是產業發展的主要方向。

其次是“Token-Based”統一表述方式。在大模型中,“Token”是一個基本元素。無論是文本、語音、圖像、視頻,還是自動駕駛中的激光雷達信號,甚至是生物領域的蛋白質和細胞,最終都可以抽象為一個Token。Token之間的訓練、學習和生成是核心環節,這與我們大腦中的神經元工作原理相似,無論執行何種任務,其基礎機制都是相同的。

最後是通用性。這與Token緊密相關。現在的通用性不僅體現在文本處理上,還擴展到多模態領域,甚至可以生成如蛋白質等復雜結構。此外,它在物理世界(如具身智能)和生物世界(如生物智能)中也有著廣泛的應用前景。以上這三個是大模型做對的。

現階段主要問題呢,第一個是效率較低。特別是大模型的計算效率低下問題,與人類大腦的高效性形成鮮明的對比。

人類大腦擁有860億個神經元,每個神經元又有數千個突觸連接,卻隻需要20瓦的能量,重量還不到三斤;而GPT-4這個萬億參數模型則需要巨大的算力和能源,與人腦相比相差1,000倍之多。

此外,人腦能夠根據不同的情境靈活調用不同區域的神經元,而大模型卻每次輸入一個問題都要調用和激活幾乎大量參數。

因此,如何借鑒人類大腦的計算方法,在降低計算耗能、提高效率方面進行探索和創新,是一個值得關註的方向。

第二個,大模型目前還未能真正理解物理世界,相關的推理能力、透明性以及開復剛才提到的幻覺等問題都還在深入研究中。

有一個重要的問題是,即使我們的大模型做得再好,它在生成式表述與對真實世界的描繪之間仍存在矛盾。因此,我們需要探索如何將生成式的概率大模型與現有的“第一性原理”或真實模型、知識圖譜相結合。

目前,雖然已經有一些嘗試,如采用RAG技術或進行微調,並取得一定的進展,但我認為這些方法並非根本解決方案。我預測,在未來五年內,將會有一個全新的架構出現,這個架構有望取代目前的Transformer和Diffusion模型。

第三個欠缺的地方是邊界問題。現在大模型無法知道“我不知道什麼”,這是目前要解決的問題,是它的邊界效應。

黃鐵軍:謝謝亞勤的“三個做對”和“三個不足”。

剛才開復老師沒講,我想再追加問一下,有些人認為大模型是一個實踐、是一個工程,是經驗主義做的東西,沒有理論基礎,說得不好聽叫“不靠譜”,不知道你怎麼看這個問題?

李開復:我覺得科學和工程缺一不可。如果隻做工程,不解“第一性原理”,沒有數學的根據、沒法評估不同路徑的效果,考慮到高昂的算力成本,這樣的摸索肯定是做不出一個好模型的。但是如果隻是在實驗室裡雕花,期待有工程人才把自己的論文做成產品,這也是不行的。

零一萬物的經驗是,每個做AI、做模型的Researcher要懂Infrastructure、都要懂推理、都要知道成本的問題。這樣當你需要面對科研問題時,就知道在產品裡需要的反應速度有多快,要怎麼實現,做完實驗就能確保模型可以得到令人滿意的工程結果。訓練模型的過程中絕對不隻是寫Paper,還要同時考慮怎樣系統化、工程化地做數據工程,因為數據的訓練、數據的篩選是非常重要的。還有底層的AI Infrastructure,GPU這麼昂貴,如果把一張當成兩張、三張使用,任何公司都會得到好處,所以科技和工程這兩方面缺一不可。

二、大模型產業化To B、To C哪個賽道更有機會?

黃鐵軍:大傢關心AI2.0,大模型產業化最大的場景在哪裡?移動互聯網這麼多年,To B、To C ,這兩個大賽道哪個更有機會?為什麼?

李開復:簡單來說,在中國To C 短期更有機會,國外兩者都有機會。To C方面,就像移動互聯網、PC時代裡,一個新技術、新平臺帶來新應用,大模型同樣如此,這是巨大的機會,但是這些應用的出現一定是按部就班的。

我認為AI 2.0 時代會和PC、移動互聯網時代一樣,第一個階段應該是生產力工具,包括信息獲取;第二個階段可能會是娛樂、音樂、遊戲,第三個階段可能會是搜索;再下一個階段可能會是電商;然後可能會有社交、短視頻、O2O的應用出現。

一個理由就是剛開始應用要能夠賺錢、能夠解決問題,所以第一波潮流會是生產力工具,但越往後,難度越高——高用戶量的應用商業模式往往是先堆積用戶再找變現模式,所以應用成本一定要很低,試錯難度很大、所需要的投資也更多。

我認為遞進的模式不會有特別大的改變,To C應用會從生產力工具一步步走向短視頻類應用。To C確實會產生大量的用戶,但這不是說不能用大模型來做產品,隻是在普及順序上會按照這六個階段進行。

當然,這個過程中也有挑戰,在大模型領域做應用跟PC、互聯網時代不一樣,因為推理成本還太貴。最近零一萬物提出TC-PMF概念(技術成本✖️產品市場契合度),這個概念是指,當你考慮PMF時,還要把技術的需求、實現難度和成本考慮進去。

做應用一定要考慮到剛才這六個階段誰先誰後、什麼時候做、提早做。第二,做應用的時候還要綜合考慮到當時的技術夠不夠好,成本是否足夠低,所以大模型To C應用不像過去移動互聯網時代,產品經理一個人就可以做主,它需要做Infrastructure、做推理引擎的人、一起打磨TC-PMF。這件事難度高,但是回報也高,機會也更大。最後我想講,在To C方面,我不相信技術可以永久領先,事實上技術帶來的領先窗口非常短暫,一旦巨頭看到你驗證PMF,他們會有很多方法超越你。一旦你驗證TC-PMF,要把握時間窗口把品牌打出來,最終勝出的To C應用不隻是需要有技術優勢,還需要在時間窗口內打造持續優勢,比如品牌優勢,比如社交鏈,比如用戶數據,讓用戶不能離開你這個平臺。在微信強大的時代裡抖音能被做出來,就是因為它抓住這個時間窗口。

再講一下To B的應用。大模型有可能在To B方向上帶來更大價值,而且能夠比To C更快實現,但是To B這個領域有幾個挑戰。

第一個挑戰是大公司、傳統公司不是很敢采取顛覆式技術,大公司會習慣每年增長5%預算,做和去年一樣的事情。

第二個挑戰在中國比較嚴重,許多大公司沒有認識到軟件的價值,為軟件付費意的意識有待進一步提高。現在有許多大模型公司在競標時越競越低,做到最後做一單賠一單,都沒有利潤。我們在AI 1.0時代曾見過這個現象,現在它在AI 2.0時代又重現。這種心態導致部分大公司隻願支付很低的價格,大模型公司也隻能給出折中的方案,達到驚艷效果的寥寥無幾。

零一萬物堅決做To C,不做賠錢的To B,而是做能賺錢的To B。所以零一萬物在To B方面精挑細選,找那種公司上下都願意擁抱新概念的公司,也為它們設計 RAG 知識檢索、專有雲、微調等方案,在國內國外都有嘗試。無論To C還是To B,API都很重要,最近國內很多模型降價,零一萬物也推出接入國際SOTA成績Yi-Large大模型的API,也希望有機會可以跟各位合作。這個API背後的模型能力大概接近GPT-4o,但是價格是GPT-4的四分之一,我相信這可以幫助更多公司或者創業者達到所謂的TC-PMF。

黃鐵軍:謝謝開復老師對To B、To C的分析,很透徹。亞勤,剛才關於To B的觀點,大傢還有一個非常關心的問題,大模型產業的最大場景會在哪裡?To B、To C在什麼地方能夠落地發揮作用?

張亞勤:在應用和服務層面,先面向消費者(To C)再面向企業(To B)。To B的周期相對較長,而To C的應用產品則可以迅速推出,這與過去的PC互聯網和移動互聯網的發展路徑基本一致。在基礎設施層,目前真正盈利的主要集中在To B領域,特別是在芯片、硬件、服務器等。像英偉達、AMD等芯片制造商,以及服務器、HBM存儲、InfiniBand和NVLink等相關技術的提供商,他們目前是盈利最多的。

關於AI路徑,我在過去十年中一直強調三個關鍵領域:首先是信息智能,其次是物理智能(現在流行的術語是具身智能),最後是生物智能。在具身智能階段,To B的應用可能會比To C更快落地。然而,在生物智能階段,情況可能相反,To C的應用可能會先於To B出現。盡管每個領域的具體情況可能有所不同,但總體來看,無論是To C還是To B,都將存在開源模型、商業閉源模型、基礎大模型,以及針對垂直行業模型和邊緣模型。


相關推薦

2022-09-09

,微軟宣佈周禮棟正式升任微軟亞洲研究院院長,成為繼李開復、張亞勤、沈向洋、洪小文後的第五位院長。接下來,讓我們一起來看看其他四位院長的傳奇經歷。歷任院長盤點1、李開復1998 年 7 月,剛剛成立的微軟中國研究院

2024-06-27

對大量不同場景開發產品。零一萬物CEO、創新工場董事長李開復李開復也表示,現階段大部分傳統公司都不太敢采用巨大顛覆式技術進行業務創新。更為嚴重的是,中國大多數公司並不認可軟件價值,不願意為軟件付費。簡單來

2024-07-12

資則沒那麼容易,估值也沒這麼瘋狂。天眼查數據顯示,李開復創辦的零一萬物,除公司成立時獲得創新工場的啟動資金,對外隻獲得阿裡雲的一筆投資;知乎CTO李大海擔任CEO的面壁智能,成立至今獲得兩筆融資;微軟前全球副總

2023-11-15

錢”,可能會逼他去麥當勞打工。現在,很多人想知道大模型創業賺不賺錢,答案可能是:這就像大學生剛畢業去打工,還養不活自己。大模型創業,看起來很火,但賺錢很難。一位大模型創業公司CEO參加一場線下沙龍,到場的

2023-07-08

院院士、清華大學講席教授、智能產業研究院(AIR)院長張亞勤出席2023世界人工智能大會投融資主題論壇高端對話環節,與原中金公司總裁朱雲來先生就大模型的發展與挑戰進行深入交流,同時展望未來的創新方向和機會。張

2023-03-30

,自帶資金、肉身入股,下場組局。跟AI打近40年交道的李開復,也宣佈親自籌組Project Al 2.0。被媒體投票希望做中國版ChatGPT的王小川,已經成立AI企業。出門問問CEO李志飛、前亞馬遜首席科學傢李沐,均先後發聲想要打造中國版

2023-11-07

11月6日晚間消息,李開復帶隊創辦的AI2.0公司零一萬物今日宣佈開源發佈首款預訓練大模型Yi-34B。零一萬物創始人及CEO李開復表示:“零一萬物堅定進軍全球第一梯隊目標,從招的第一個人,寫的第一行代碼,設計的第一個模型

2023-11-06

李開復,這位在西方因暢銷書《人工智能超能力》而出名、在中國因押註人工智能獨角獸而聞名的計算機科學傢,有新的事業-一個偉大的抱負。3月底,李開復成立一傢名為01.AI(零一萬物)的公司,旨在為中國市場開發本土化

2024-04-15

大。整個2023年,OpenAI、微軟、谷歌等大模型發佈頻繁,李開復、王小川等也親自下場發佈大模型……去年4月,釘釘全面投入智能化,開始用大模型逐個將高頻產品重做。到當年六、七月份,釘釘內部有人提出:能否有一個直接 AI

2023-03-23

正在大力投資人工智能的能力和雲基礎設施,以擁抱基礎模型的趨勢。目前,騰訊的AI能力已經可以應用到工業質檢、智能制造等產業場景,已經醫療、助老、生物多樣性保護、農業等多個社會領域。在AI大模型(預訓練大模型

2023-03-20

。3月19日,澎湃新聞記者從創新工場董事長兼首席執行官李開復朋友圈獲悉,李開復正在籌辦全球化AI新公司ProjectAI2.0,目標“不僅僅要做中文版ChatGPT”,目前資金、算力陸續到位,希望在全球范圍內“招賢納士”。“我正在親

2023-02-10

自GPT-3發佈之後,國內許多企業就已經跟進在做類似的大模型。“實際差距並沒有那麼大,大概在一年左右。”小冰公司CEO李笛也向光錐智能提到:“國內人工智能技術不像芯片、操作系統一樣落後於國外,相反它應該是最接近

2023-11-14

近日,創新工場董事長兼CEO李開復創辦的AI大模型創業公司“零一萬物”推出Yi-34B和Yi-6B兩個開源大模型,並聲稱對學術研究完全開放,同步開放免費商用申請。然而,在Yi-34B的HuggingFace開源主頁上,開發者ehartford質疑該模型使用

2024-04-22

蹭流量的?”除大廠,還有大佬。去年Kimi剛發佈不久,李開復成立的零一萬物,發佈大模型Yi-34B,能處理約40萬字,是Kimi的約2倍,聲稱問鼎多項全球英文和中文能力測試排行榜第一。但馬上就有業內人指出,“Yi系列”的模型