聲明:本文來自於微信公眾號 見實(ID:jianshishijie),作者:唐露堯,授權站長之傢轉載發佈。
如果仔細觀察會發現,大傢似乎很少再提“AIGC”,取而代之的是“生成式AI”、“LLaMA2”以及“AI大模型”等新詞。
這場由“Chat GPT”引發的內容生產力大革命,已經慢慢走出單一的“對話式場景”,並迅速蔓延到商業應用的各個場景,尤其是“AI數字員工”的出現,更是打響互聯網大廠AI大模型應用第一槍。
“企業需要快速建立‘收入增長飛輪’並通過AI構建更加高效的組織協同和作戰能力。”這是見實和360集團副總裁、N 世界負責人梁志輝深聊時的一段話。
無獨有偶,梅花創投創始人吳世春在同見實深聊時也曾說過類似觀點,他認為AI 團隊要想拿到融資,必須先掙到錢。
可見,面對這波新的AI大浪潮,行業似乎更加克制和理性,當然,這也和稍顯窘迫的大環境密切相關。
作為一名互聯網老兵,梁志輝經歷從PC互聯網到移動互聯網的完整周期,這波AI浪潮的出現,不由得讓他找回剛進入PC 互聯網時代的感覺,隻是這次變革的速度遠比上次快。
對此,梁志輝喜憂參半。喜的是,能在幾十年短暫的職業生涯中,同時經歷兩次行業大浪潮,並跟隨360這傢企業沖在時代最前沿;憂的是,一大波不行動的企業即將被加速淘汰,部分看似牢固的商業模式也在加速崩塌。
深聊中,梁志輝分享大模型在企業數字化過程中的應用和未來發展趨勢,並稱這次不可逆的底層技術大變革充滿機遇和挑戰:
無論企業大小,接入AI技術的門檻將越來越低,大模型可以為企業帶來十倍速的提升,但這種提升並不會立即體現在營收上。因此,企業在接入大模型時需要權衡好ROI,確保大模型能夠為企業帶來實際的經濟效益。
這也是為什麼360會選擇切入數字員工領域的原因,企業應該先打造一支具備數字化思維的“AI鐵軍”,率先建起一支懂AI的團隊,或許才能在未來商業戰場上提前占據有利地勢。
一邊是百年之未有之大變局;另一邊,大模型應用也面臨著一些挑戰,如數據安全、成本控制和技術門檻等。
尤其對於中小企業而言,如何在保證效果的前提下降低使用成本是一個亟待解決的問題。基於此,360提出“人工+大模型知識庫+AI”的組合策略,確保數據安全的同時,還能大大降低企業自建大模型的成本。
如今的大模型已經成為企業提高效率的新利器,資本、用戶和場景都發生翻天覆地的變化,如果仍然堅持過去的產品和項目,那麼回報率肯定會大打折扣。企業如何擁抱新技術,不斷提升自身的數字化能力,以應對市場競爭帶來的挑戰呢?
見實:接入大模型後,企業效率普遍提升多少?市場反饋如何?
梁志輝:市場對AI的歡迎程度實際上比我們想象的更強烈。今年3月,Chat GPT引發AI浪潮之初,大眾對AI有一種科幻的想象。我們切身的體會是,因為大模型業務我們接觸很少遇到的化工企業客戶。技術變革的同時,也湧現一批在長尾端的高價值客戶。
據觀察,接入AI後,以前4個人的工作可能隻需要1人就能完成,這意味著,企業可以吞吐更大規模的業務量。然而,實際情況可能並不樂觀,更多老板可能會選擇先優化員工,雖然沒有通過AI接到更多訂單,但起碼可以通過AI降低企業員工成本。
我們內部有一種觀點:AI是企業的發展優先權。
以前,采用數字化工具可以顯著提高企業績效和效率,現在輪到AI領域。
大模型讓我們學會重新審視現有業務。在內容理解方面,AI可以幫我們提高十倍工作效率,但企業營收是否會因為局部10倍速增長而增長,依然需要一段時間檢驗。
見實:無論企業大小,接入AI技術的門檻在逐漸降低,你認為企業未來的決勝點會偏向於哪?產品、服務還是品牌?
梁志輝:誠然,技術壁壘已經被打破,很多開源軟件和社區。企業如何快速建立“收入增長飛輪”以及如何通過AI構建更加高效的組織協同和作戰能力變得非常重要。
一方面是商業模式的創新,另一方面則是向內看組織協同能力。
這也是為什麼360會切入數字員工的原因,隻有員工率先完成AI能力的升級,隻有一支具備數字化思維的“AI鐵軍”才能在未來的商業戰場上更快占領優勢地位。
見實:360佈局大模型業務是何時開始的?定位是怎樣的?
梁志輝:實際上,360很早就開始涉足人工智能領域,特別是深度人工智能領域,2016年開始組建360人工智能研究院。今年3月29號正式發佈360AI大模型,按照我們創始人當時的說法——把剛出生的孩子抱出來讓大傢看看。
今年5月,360發佈針對to B市場的千億通用大模型,並在多個行業成功落地應用,尤其是企業數字員工方面的應用,是當前的主營業務;到六七月份,發佈360大模型行業聯盟以及企業大模型解決方案。
目前,以“企業數字員工”為出發點,我們已經組建面向To B和To C兩個不同領域的大模型團隊進行研究。其中To B業務中的AI數字人和AI數字員工等生成式AI產品是當前開發的主力軍。
不僅如此我們也有部分 To G 業務,也會有和合作夥伴共同完成一些垂直大模型,基本上覆蓋大模型領域的上中下遊,但“安全”依舊是360的核心關鍵詞。
見實:和同類型通過大模型技術做數字員工的企業相比,360作為協同領域的新人具備哪些優勢?
梁志輝:一直以來,360占據著國內辦公電腦最大的市場份額,具備C端應用場景與B端安全經驗,如,360安全導航首頁、瀏覽器搜索等這幾個主要產品為我們帶來大量的關註量和使用量。
上周,我們發佈AI瀏覽器和AI搜索功能。在這個過程中,潛移默化的讓 C 端用戶通過低成本甚至免費的方式使用大模型的技術,B端企業也可以通過性價比更高的SaaS解決方案,選擇月租的方式完成大模型商用。
02實踐:高效自建大模型“人+知識庫+AI”三方協同見實:在 To B業務的數字員工業務中,必定會涉及大量企業內部文檔或數據,數據安全問題是否會成為影響效率的阻力?你們是如何解決的?
梁志輝:確實會涉及到,但也要看企業的性質。我們會分三類企業來看:
一是,絕大多數中小企業,他們可能沒有太多機密數據,也不會把銷售數據放入大模型進行計算,這類企業,隻要提供一個專有的數據空間,實現數據隔離即可。
二是,規模較大的企業,一般都有自己的信息安全管理規定和內部要求,他們不太可能將內部數據存儲在公共雲上,即使是專有雲環境也有疑慮。
因此,我們會提供一個“大模型知識庫”解決方案。企業可以將所有需要大模型處理和訪問的數據放入這個知識庫中,這個知識庫可以在企業內部環境中部署為雲服務,僅在提問時才與大模型進行部分交互。
從成本角度看,配置獨立的大模型推理節點成本相對較高(一臺約150萬),並且一臺推理節點通常無法滿足所有需求,知識庫的中轉策略是相對而言“高質價比”的解決方案。
三是,高度保密的企業,原則上他們連簡單的交互也是不允許的,在這種情況下,我們會提供一個相對低成本的獨立大模型推理節點,並與大模型工具捆綁銷售。
見實:企業需要提供多大數據量才能實現智能化?接入大模型並使其運行,需要多長時間?
梁志輝:我們曾為一傢對數據保密要求極高的企業提供服務,大約花費一個半月時間,對於企業級的大項目而言,時間周期剛剛好。
數據量的需求因企業需求不同而異,對於某些具體任務,如營銷寫稿,可能提供3篇文章即可;但對於大型企業的數據協同,那可能就需要提供數萬份文檔。
見實:那如果想達到Chat GPT的智能水平,需要滿足哪些硬性或軟性要求?
梁志輝:國內大模型目前基本都是自研,備案制度也已經不允許套殼。所以,在具體應用中,你可能發現國內產品不如海外產品,這背後至少受三方面影響:
一是,缺乏對大規模超算中心的運營和管理經驗。算法實際上是開源的,大傢缺少的是實際經驗,使用1000張顯卡與1萬張顯卡會產生完全不同的問題,所需的基礎計算中心架構也會有所不同,這些經驗隻能通過實踐來積累。
因此,懂得如何構建硬件架構以支持上千甚至上萬張顯卡的人才就變得非常重要,這方面知識國內廠商仍然需要多交學費,多實踐才能掌握,隻要有一個人掌握關鍵知識,國內的學習速度會很快。
二是,數據因素。Chat GPT的確有先發優勢,他們的數據訓練樣本是國內廠商望塵莫及的,國內的優勢是離用戶場景更近。實際上,大模型訓練數據量並不是越多越好,而是數據質量越高越好,一些高質量的文本,如代碼、論文和法律文書,才是真正能提升大模型邏輯推理能力的內容。
有些人可能誤以為百度貼吧或知乎上的內容是高質量數據,但在實際操作中,這些平臺可能包含大量不相關的信息,對大模型的邏輯處理能力無益,即便是知乎內容,很多內容也算不上高質量。
還有一部分人會拿聊天對話來訓練,也是非常低效的,聊天記錄可以幫助大模型獲得更加口語化的表達,但無法真正拿來解決問題。核心原因是人與人之間的對話往往是主觀無邏輯的,AI很難梳理出背後的對話邏輯,除非單人的樣本量足夠大,但這依舊很難實現。曾經有一個AI聊天機器人在上線後,由於接受推特和Facebook中大量負面評論的訓練數據,幾天後它學會說不當言論並采取不當行為。
三是,沒有足夠多的顯卡資源,AI算法高度依賴高端顯卡,設備采買的價格比以前從事計算和存儲密集型數據中心的設備要高出大約5到10倍。所以,大傢都在關註“國產高容量顯卡”的研發進度,一旦研發出來,成本將大幅度降低,國內AI 大模型的進展將實現質的飛躍。
我們非常期待華為能降低這方面的價格,或者隨著其他中國廠商加入,能否將價格降低一半或降至四分之一,這一天的到來令人期待。
見實:目前,大模型處理哪些工作會比較低效?
梁志輝:大模型在內容生成和理解方面,比我們見過的所有技術方案都強大很多,但如果要讓大模型完成一些類似信息抽取能力或者強大推理能力的工作,目前來說僅靠大模型的一次交互是無法實現的。
比如我讓大模型編寫一份行業研究報告,如果人工操作,大約能拆出1000多步,如果讓大模型通過Auto GPT的方式進行推理拆解,分步執行,可能處理一半時就會斷掉,AI很難理解這1000多步的內在邏輯,以至於直接中斷生成。
尤其在大模型“幻覺”問題上,當你問它一個問題時,它可能會“不懂裝懂”,編一個新故事來回答你。例如,我嘗試過讓GPT幫我推薦北京飯館,他就編一些我從未聽過的地方,實際上是杭州飯店,這裡就出現一種幻覺。
見實:為什麼會出現幻覺?
梁志輝:主要是大模型基於的是大量語料進行訓練,但大量語料無法與搜索引擎相比。引擎是基於現實世界,有人真正寫過。
盡管有很多事實信息,但我們會發現大模型在涉及到一些他不解的事實信息時,會立即開始胡編。
想讓大模型完成復雜任務,僅靠一個prompt 是無法實現的,即使給出一個可編程的解決方案,大模型在一次交互中仍然無法解決問題。所以,我們正在考慮通過AI Agent(人工智能代理,一種能夠感知環境、進行決策和執行動作的智能實體。比如,告訴AI Agent幫忙下單一份外賣,它就可以直接調用 APP 選擇外賣,再調用支付程序下單支付,無需人類去指定每一步的操作。)的解決方案,讓大模型專註於他最擅長的事。
見實:這種 AI“幻覺”可能是大量數據“湧現”出的結果,但有時這種“湧現”數據反倒成冗餘信息,這麼理解對嗎?另外,請您具體展開講講360在AI Agent方面的實踐。
梁志輝:是的,如果無法解決“幻覺”問題,企業貿然接入大模型的風險會很大,360在對抗大模型幻覺或推理能力不足的方式是采用AI Agent的方式來處理,也就是先把整個項目“人為劃分出詳細的工作流”,讓大模型執行工作流中每個子任務,我們隻要教大模型學會調用外部搜索、計算以及其他工具即可,發揮大模型最擅長的部分。
基於事實信息進行總結,提供更優質的語料,且是一件非常具體的事,那麼99.9%的情況下,大模型的表現都會特別穩定,底層思維就是把大項目拆分成小項目,把小項目拆分成具體步驟來處理。
比如,做一份旅遊規劃,你可以讓AI同時打開200個網頁,讓它快速理解,並同時讓他總結涉及到的內容深層部分,包括搜索關鍵詞,閱讀網頁內的所有內容,如攜程、機票等。至於如何實時抓取動態的航班信息,我們可以通過調用第三方API,讓大模型在規定的流程中執行準確的分支跳轉即可。
這其實還催生一個有趣的現象,就是企業內部可以自定義工作流,員工之間可以把做好的工作流分享給彼此。這意味著,以後AI Native APP可能不一定是現在移動端的APP,它可以是一個用於Agent 的工作流。
這個工作流已經把大模型要做的事的工作流程和框架穩定下來,那它就可以幫你很穩定處理需要幾百步才能完成的任務,這在我們內部的測試效果非常好。
整個過程中,我們希望用戶不要寫 prompt,隻有基於我的低代碼平臺,就能建立起自己的大模型。
就像是小學生使用的編程軟件,在配置大模型工作流的過程中,您隻需添加一些控件和框架,無需具體編寫具體代碼,通過拖拽幾個邏輯運算點,大模型就可以按照指定步驟完成任務。
03趨勢:大模型下一個拐點或在半年內到來見實:一派聲音是“無AI不投資”,另一派則認為早期AI項目的風險太高,必須先賺到錢才能投,對此您怎麼看?
梁志輝:國內和國外要分開看,國外許多產品已經從流量和收入方面取得很好的成績;國內To B端則集中在營銷和辦公領域,To C個人付費用戶的意願相對較低,C端用戶往往需要的是情感陪伴方向,真正實現這些需求還是有很大挑戰的。
但依舊有兩點建議:
一是,對於深處AI賽道的企業而言,不要舍本求末做一款強AI產品,而要學會用AI解決實際問題。AI提高效率有其優勢,但必須確保與現有業務和需求結合,不脫離實際才是根本。
二是,積極擁抱新事物,從PC互聯網到移動互聯網的變革,當前整個市場正在發生大的變革,正如當初從塞班到安卓系統的轉變,甚至很快就可能出現“iPhone時刻”,如果資本、用戶和整個使用場景都發生變化,企業仍然堅持過去的產品和項目,回報率肯定會大大折扣。
見實:這會是一場正和遊戲還是零和遊戲?會出現一傢獨大嗎?
梁志輝:我不認為會一傢獨大,AI大模型的市場很大,國內C端市場競爭尤為激烈。未來,每個行業都可能會有自己的大模型,有各自的開源算法和數據,但仍需要時間來調優以確保數據算力和用戶效果。
國內的廠商今年已經真正下場,需要時間來適應新技術。
見實:也就意味著大模型並不存在先發優勢?
梁志輝:實際上,盡管市面有大量數據可用於訓練,但如果你無法獲得垂直領域的精準數據,那麼大模型仍然隻是一個剛剛入行的新手,就像是一個剛畢業的高考狀元,依舊不懂如何開中藥。
如果對於某些特定領域的專業知識不足,很難真正產生價值,數據本身就是一個壁壘。
能夠提供精確有效的高質量數據,這將成為大模型能力的一個關鍵因素。例如,一些法院的判例是否公開數據?如果你想建立一個法律大模型,如果這些案例數據不可獲得,就會成為一個難以逾越的壁壘?
見實:是否會“湧現”出新的商業模式?
梁志輝:確實有可能發生重大變革,比如,訂閱方式就是最直接的變化。過去,無論是銷售軟件還是訂閱服務,都與時間相關。
現在,技術計價單位不再是按月定價,而是按照計算能量點和算力券等方式,如果你希望更快獲得更多結果,需要支付更多費用,而不再像以前那樣采用固定費用或存儲空間來計費。
見實:你認為國內大模型會在什麼時候迎來下一個拐點?
梁志輝:從實際情況來看,文生文的大語言模型,無論是訓練工具還是相應的內容都不容樂觀。GPT雖然在開源過程中表現良好,但中途又關閉開源。
慶幸的是,今年7月18日,Meta發佈開源大模型LLaMA2,性能接近GPT3.5,預訓練模型在2萬億tokens以上,精調Chat 模型是在100萬人類標記數據上訓練的。
目前,如果一傢公司想要做成一個大語言模型,需要備案大約1000臺服務器,還要高薪招聘工程師來撰寫大型訓練文件,成本實在太高。不過,我們也看到一個向好的現象:
比如,自然語言處理和圖像處理的領域,已經具備足夠多的工具和標準化雲產品,幾乎人人都能構建自己簡易的大模型;再比如,現在最火的“煉丹師”(深度學習領域的AI研究員)還不是上班族,很可能是一群高中或初中生,他們願意為自己熱愛的二次元動漫深入研究,並常年活躍在QQ討論群裡。
一旦有一個開源工具或社區,發展速度就會超越由幾個大公司壟斷的狀態,在這種情況下,行業發展會更加迅速,這個狀態可能不需要一年,大約半年就可以實現,加上不斷加強的開源大語言模型,未來可期!