Meta正構建巨型AI模型 支持旗下所有產品的視頻推薦引擎


3月7日消息,美國時間周三,Meta公司一位高管透露,公司正在對人工智能進行重大投資,旨在打造一個先進的系統,能夠支持Facebook等旗下各個平臺視頻的推薦引擎。

meta_ai_make_a_video.jpg

Meta旗下負責Facebook平臺的湯姆·艾裡森(Tom Alison)透露,這個項目是公司“2026年技術發展藍圖”的關鍵一環。他詳細解釋稱,這一全新AI推薦模型將不僅支持類似於TikTok的Reels短視頻服務,還將覆蓋更多的傳統長視頻內容。

艾裡森在舊金山的摩根士丹利科技會議上提到,目前Meta對各個產品均采用獨立的推薦模型,如Reels、Groups和核心的Facebook信息流等。新的巨型AI模型預計將改變這一局面,實現平臺間的統一推薦。

作為Meta進軍人工智能領域的重要一步,該公司已在購買英偉達GPU上投入數十億美元。這些GPU是AI研究人員訓練大語言模型的主要工具,為ChatGPT等生成式人工智能模型提供動力。

艾裡森還具體說明Meta技術藍圖的“第一階段”,即公司正在將現有推薦系統從傳統計算機芯片轉向GPU,以提高產品性能。

他透露,受去年大語言模型熱潮影響,Meta高層對這些模型處理海量數據及具備聊天等通用能力的表現深感震撼。因此,Meta看到開發能跨產品應用的巨型推薦模型的潛力,並在去年迅速搭建這一新架構。目前,該模型已在Reels短視頻服務上初步測試。

艾裡森進一步指出,這種新的“模型架構”在Facebook核心應用上取得顯著成效,幫助增加8%至10%的觀看時間。這表明該模型在數據學習能力上超越前代模型。

他強調,Meta正在加大投資,以確保能夠在合適的硬件上擴大這些模型的規模。目前,該公司正在系統架構的“第三階段”,重點是驗證新技術的有效性,並推廣至多個產品。

艾裡森表示:“我們的目標不僅是為Reels短視頻服務提供動力,還計劃使用單一的巨型模型驅動整個視頻推薦生態系統,並最終將信息流推薦產品納入其中。我們相信,這樣不僅能使推薦內容更吸引人、更相關,還能提升推薦引擎的反應速度。”

若計劃成功,它將如何改變用戶體驗?艾裡森解釋說:“比如,用戶在Reels中發現感興趣的內容,當回到Facebook信息流時,基於之前的數據和模型分析,我們能為他們展示更多類似內容。”

為支撐這一宏偉計劃,艾裡森透露Meta已積累大量GPU資源。這些高性能計算單元不僅用於驅動視頻推薦模型,還將支持公司在更廣泛生成式人工智能領域的項目,例如開發智能數字助理。

Meta正探索生成式人工智能技術的多種應用場景,包括在核心信息流中加入更復雜的聊天工具,允許用戶在看到感興趣的內容時,通過簡單操作就能獲取更多相關信息。例如,面對泰勒·斯威夫特(Taylor Swift)的相關推薦帖子,用戶可能僅需點擊一個按鈕,即可向Meta AI提問,獲得更多信息。

此外,Meta還計劃將AI聊天工具整合至群組中,比如在Facebook的烘焙群組中,成員能就甜點制作問題直接從數字助理獲得答案。

艾裡森稱:“我相信,我們有能力將生成式人工智能帶入到多用戶的互動環境中去。”


相關推薦

2024-03-26

望收件人能與Meta合作。Meta近日曾表示,計劃開發一種“巨型”AI系統,希望為旗下Facebook的整個視頻推薦引擎提供新的驅動力。上周,英偉達在2024年GTC大會上發佈全新的Blackwell架構AI芯片B200 GPU。Meta表示,將在今年晚些時候收到

2023-11-03

ot;飲食失調"等問題的用戶與危機服務合作夥伴的實時支持連接起來。現在,這些面板還將以更直觀的方式突出顯示第三方危機熱線的資源,同時還嘗試用"自我同情"或"接地練習"等主題的建議來重新引導搜索查

2022-07-20

來,火山引擎在雲市場的再次加碼。火山引擎是字節跳動旗下六大業務板塊之一。火山引擎總裁譚待介紹,雲上增長方案結合字節最佳實踐和行業發展趨勢,以敏捷迭代、體驗創新和數據驅動作為增長三要素,由火山引擎與不同

2023-02-07

到高標準。除Google自傢產品外,皮查伊認為重要的是通過構建最好的模型,讓其他人能夠輕松、安全、可擴展地從這些進步中受益。下個月,Google將開始讓個人開發者、創作者和企業試用其生成式語言API,最初由LaMDA提供一系列

2022-07-25

聘網站上發佈多個芯片職位,包括SoC和Core的前端設計,模型性能分析,驗證,底層軟件和驅動開發等。在資質方面,字節對上述崗位提出熟悉RISC-V和ARM系統架構的要求,而在系統開發、驗證兩個崗位上,還有熟悉X86架構的要求

2024-05-06

搜索引擎。AI搜索產品大多基於傳統搜索引擎和大模型API構建,有開發者進行過測算,按照1萬token為0.1美元計算,單次搜索的成本在1.4-2.1元,假設一天有10000人使用,每人隻搜索一次,折合人民幣也需要2.4萬元,這對初創企業來

2024-04-21

擁有約35萬塊 GPU,目前已經建立由22000塊 GPU 和24000塊 GPU 構建起來的兩個單獨集群。在談到開源問題時,他類比說,在現有的應用生態系統中,蘋果和谷歌等「守門人」對開發者能夠構建的應用類型擁有很大的控制權,他不想讓

2023-02-08

Yann LeCun博士在內的數百名頂級人工智能研究人員,並在構建人工智能系統所需的大量算力上花費數億美元。去年11月15日,由Meta AI(前身為Facebook人工智能研究院)開發的AI語言大模型Galactica曾短暫上線過,旨在運用機器學習來

2023-02-18

大規模的公司提供生成式AI工具。Scott最近表示:“我們正構建一個平臺,它由強大的計算能力和AI模型組成,能支持很多人用來搭建業務。目前,該平臺還處於開發的早期階段。”谷歌火速迎戰,誰輸誰贏?在2月初的發佈會上

2023-12-07

,不斷更新為類似ChatGPT的AI聊天機器人提供動力的大語言模型(LLM)的開源版本。雖然Meta在AI方面進行大量的後臺工作和基礎設施建設,但它向消費者推出的AI新產品相對較少,並且這些新產品的市場反響褒貶不一。展望明年,

2023-03-22

還推出全新雲服務及代工廠NVIDIA AI Foundations,使企業能夠構建、改進、運營使用其專有數據訓練的、用於特定領域任務的定制大模型和生成式AI模型:(1)NeMo:文本生成模型構建服務,提供從80億到5300億個參數的模型,會定期

2023-04-07

那樣——大多數內容將由普通人生成。Linum正在使用 AI 來構建能夠實現這種轉變的工具。Linum 由 Sahil Chopra 和 Manu Chopra 兩兄弟創立,他們擁有豐富的AI 經驗。Sahil 是斯坦福大學關於 LLM(大型語言模型)研究生課程的合寫者。Manu

2022-11-02

Google宣佈一個雄心勃勃的新項目,開發一個支持世界上"1000種最常用語言"的單一AI語言模型。作為實現這一目標的第一步,該公司公佈一個經過400多種語言訓練的人工智能模型,它將其描述為"今天在

2024-02-26

量的數據集。許多其他公司即便有充足的計算資源,但在構建和利用同等規模與質量的數據集上遇到挑戰,因此未能及時跟進推出類似的尖端模型。國內AI文本大模型進步明顯多模態大模型差距較大OpenAI在技術報告中承認,Sora可