據報道,為當前人工智能熱潮提供支撐的最重要“原材料”的價格正在快速下降,這將有助於這項技術更快地進入主流。然而,這也威脅到那些希望從這股熱潮中獲利的創業公司的財務狀況,並可能導致行業主導權集中在一小部分公司的手中。
這裡的原材料指的是大語言模型(LLM)的處理能力。這些模型支撐著ChatGPT和微軟新必應搜索等服務。
運行這些模型原本需要高昂的算力成本,因此可能會嚴重拖累模型的廣泛應用。搜索引擎You.com首席執行官、知名計算機科學傢理查德·索切(Richard Socher)表示,就在幾周前,You.com使用人工智能提供搜索服務的成本還比傳統互聯網搜索高出50%。但到上月底,由於大語言模型公司OpenAI、Anthropic和Cohere之間的激烈競爭,這一成本差異下降到隻有約5%。
幾天後,OpenAI發佈一項新服務,讓開發人員可以直接使用ChatGPT,並將使用這項技術的價格削減90%。
這對客戶來說是好事,但對OpenAI的競爭對手來說可能是毀滅性的。包括Anthropic和Inflection在內的許多公司已經完成或正在融資,以支撐各自大語言模型的發展。
很少有像大語言模型這樣的技術能如此迅速地從實驗室研究直接進化到大規模商用,這也促使研究者紛紛將實驗室環境的開發過程“工業化”。性能上的大部分提升以及成本的下降主要來自運行大語言模型的底層計算平臺的優化,以及對模型訓練和運行方式的改進。
從某種角度來看,硬件成本的大幅下降有利於所有的市場參與者。這其中包括為滿足最新人工智能模型要求而設計的高性能芯片,例如英偉達H100 GPU。微軟在其Azure雲計算平臺上運行OpenAI的模型,並向其他大語言模型公司提供相同的高性價比硬件支持。
然而,大語言模型既是科學,也是藝術。OpenAI表示,自去年12月以來,ChatGPT對於處理查詢的方式進行“一系列系統范圍的優化”,使成本降低90%,最終帶來面向用戶的大幅降價。
訓練大語言模型需要花費數千萬美元,而處理這類任務的技術也在快速變化。至少在短期內,一小部分具備模型開發和訓練經驗的人才將可以獲得更大的優勢。
當最優秀的技術被廣泛理解和采用時,早期參與者可能已經獲得先發優勢。微軟雲計算和人工智能部門負責人斯科特·格斯裡(Scott Guthrie)提到GitHub Copilot等新服務。該服務於去年夏季推出,向軟件開發者提供代碼建議。在被廣泛使用後,這類服務將會迅速優化。他本周在摩根士丹利的一場投資者會議上表示,來自這類服務用戶的“信號”很快就將成為產品重要的差異化點。
OpenAI競爭對手的主要希望在於,提供額外的服務,幫助開發者和大企業客戶更方便地使用大語言模型,以及針對細分市場探索滿足特定業務需求的模型。
例如,以色列創業公司AI21 Labs本周發佈最新的大語言模型,同時也發佈一系列API(應用程序接口),以提供文字概要或改寫等更高級的服務。
AI21聯席首席執行官奧利·格申(Ori Goshen)表示,大部分公司不會使用類似ChatGPT的通用模型,而是需要針對金融或醫療等行業訓練的模型,或是基於某個公司自有數據訓練的模型。
他認為,大語言模型目前還處於初級階段,還有很多工作需要完成,例如減少模型說假話的傾向,以及防止模型產生“幻覺”,提供與事實無關、似是而非的答案。如果希望取得成功,人工智能公司還需要持續進行前沿探索。
不過目前的事實是,這些生成式人工智能的基礎成本正在大幅下降。OpenAI的降價是一個信號,表明這項技術將以非常快的速度進入大規模商用。但這同時也帶來警示,表明這個行業未來可能不會有太多公司有實力參與。