Meta第二代自研AI芯投產 擺脫英偉達依賴


Meta的第二代自研芯片正式投產!小紮計劃今年部署ArtemisAI芯片為AI提供算力,以減少對英偉達GPU的依賴。據悉,新的芯片將被用於數據中心的推理(Inference)任務,並與英偉達等供應商的GPU一起協同工作。

對此,Meta的發言人表示:“我們認為,我們自主開發的加速器將與市面上的GPU相得益彰,為Meta的任務提供最佳的性能與效率平衡。”

除更高效地運行的推薦模型外,Meta還需要為自傢的生成式AI應用,以及正在訓練的GPT-4開源競品Llama 3提供算力。


Meta的AI貼紙功能,此前在Messenger、Instagram和WhatsApp上都處於測試階段


OpenAI工程師Jason Wei在Meta的一次AI活動中聽到,Meta現在有足夠的算力來訓練Llama 3和4。Llama 3計劃達到GPT-4的性能水平,但仍將免費提供

不難看出,Meta的目標非常明確——在減少對英偉達芯片依賴的同時,盡可能控制AI任務的成本。

Meta成英偉達大客戶

Meta CEO小紮最近宣佈,他計劃到今年年底部署35萬顆英偉達H100 GPU,總共將有約60萬顆GPU運行和訓練AI系統。


這也讓Meta成為繼微軟之後,英偉達最大的已知客戶。


小紮表示,目前Meta內部正在訓練下一代模型Llama 3。

在35萬塊H100上訓練的Llama 3,無法想象會有多大!



Omdia的研究數據顯示,Meta在2023年H100的出貨量為15萬塊,與微軟持平,且是其他公司出貨量的3倍。

小紮稱,“如果算上英偉達A100和其他AI芯片,到2024年底,Meta將擁有近60萬個GPU等效算力”。

性能更強、尺寸更大的模型,導致更高的AI工作負載,讓成本直接螺旋式上升。

據《華爾街日報》的一位匿名人士稱,今年頭幾個月,每有一個客戶,微軟每月在Github Copilot上的損失就超過20美元,甚至某些用戶每月的損失高達80美元,盡管微軟已經向用戶收取每月10美元的費用。

之所以賠錢,是因為生成代碼的AI模型運行成本高昂。如此高的成本,讓大科技公司們不得不尋求別的出路。

除Meta之外,OpenAI和微軟也在試圖打造自己專有的AI芯片以及更高效的模型,來打破螺旋式上升的成本。


此前外媒曾報道,Sam Altman正計劃籌集數十億美元,為OpenAI建起全球性的半導體晶圓廠網絡,為此他已經在和中東投資者以及臺積電談判

專為大模型定制AI芯

去年5月,Meta首次展示最新芯片系列——“Meta訓練和推理加速器”(MTIA),旨在加快並降低運行神經網絡的成本。

MTIA是一種ASIC,一種將不同電路組合在一塊板上的芯片,允許對其進行編程,以並行執行一項或多項任務。


內部公告稱,Met首款芯片將在2025年投入使用,同時數據中心開啟測試。不過,據路透社報道,Artemis已經是MTIA的更高級版本。

其實,第一代的MITA早就從2020年開始,當時MITA v1采用的是7nm工藝。

該芯片內部內存可以從128MB擴展到128GB,同時,在Meta設計的基準測試中,MITA在處理中低復雜度的AI模型時,效率要比GPU還高。

在芯片的內存和網絡部分,Meta表示,依然有不少工作要做。

隨著AI模型的規模越來越大,MITA也即將遇到瓶頸,因此需要將工作量分擔到多個芯片上。

當時,Meta團隊還設計第一代MTIA加速器,同樣采用臺積電7nm,運行頻率為800MHz,在INT8精度下提供102.4 TOPS,在FP16精度下提供51.2 TFLOPS。它的熱設計功耗(TDP)為25W。


2022年1月,Meta還推出超算RSC AI,並表示要為元宇宙鋪路。RSC包含2000個英偉達DGX A100系統,16000個英偉達A100 GPU。

這款超算與Penguin Computing、英偉達和Pure Storage合作組裝,目前已完成第二階段的建設。


相關推薦

2024-02-12

快科技2月11日消息,據媒體報道,Meta第二代自研AI芯片Artemis今年正式投產。據解,新的芯片將被應用於數據中心的推理任務,與英偉達等供應商的GPU一起協同工作。Meta發言人之前表示:我們相信,我們自主開發的加速器將與市

2023-04-05

100占據約95%的市場份額。針對谷歌是否已經全面轉向使用自研芯片來訓練人工智能模型,英偉達未予評論。不過一位英偉達方面技術人士告訴第一財經記者:“谷歌同時使用英偉達的芯片和谷歌自己的芯片,很多時候競爭與合作

2024-02-23

造100萬張AI芯片。而亞馬遜已經造出10萬張芯片。Meta的第二代芯片Artemis將於今年投產。微軟的AI芯片也在測試過程中,計劃交由英特爾投產。谷歌、微軟和亞馬遜這三大巨頭自研AI芯片有著獨有優勢:他們本身就是AI芯片的最大用

2023-10-07

和運行大語言模型的數據中心服務器設計的。它預計將與英偉達的旗艦產品H100 GPU競爭,可能有助於微軟減少對英偉達設計的GPU的依賴。目前,英偉達在AI領域處於領先地位,它在AI處理器市場上占據大約80%的份額,其高端處理器

2024-02-23

務器芯片的性能,並擺脫對英偉達的依賴;Meta則宣佈第二代自研AI芯片Artemis將在2024年正式投產,並應用於數據中心的推理任務;Google最新推出的Gemini、Gemma均著重提及訓練環境采用Google的TPU。另一方面,OpenAI的CEO Sam Altman甚至希

2024-03-17

得亞馬遜 AI 訂單。通過此次合作,Marvell 將協助亞馬遜第二代 AI 芯片(即Trainium 2)的設計,預計2023年下半年啟動委托設計,2024年進入量產。早在 2020 年12月,亞馬遜就推出一款全新的機器學習定制訓練芯片 Trainium,與標準的 AW

2024-04-09

速建設新數據中心架構的站點,並在數據中心內部署新版自研定制芯片。紮克伯格也在電話會上強調,培訓和運行AI模型在未來將“需要更多的計算資源”,並稱公司在AI方面“以獲勝作為目標,將繼續在這一領域進行大規模投

2024-02-11

Meta同時還在自研專用的AI芯片。其中,經過全新升級的第二代自研AI芯片Artemis,即將在今年正式投產。無獨有偶,微軟也在去年11月發佈兩款定制芯片——Azure Maia 100和Azure Cobalt 100。其中,采用臺積電5nm工藝並擁有1050億個晶體管

2023-11-29

第四代芯片產品,隨著人們對生成式 AI 興趣的高漲,第二代AI芯片Trainium2 將幫助客戶以更低的成本和更高的能效更快地訓練自己的機器學習模型。Graviton4計算性能較前代提高多達30%美東時間11月28日周二,亞馬遜旗下雲計算業務A

2023-11-04

工作過的人才,進而一步一步將芯片裡的計算單元替換為自研產品。先是棄用 Arm 公開發售的 CPU 內核設計、再是以自己的 GPU 取代 Imagination 的設計,並自研處理圖像、編解碼音頻和視頻、加速人工智能算法、加密存儲等各種專

2023-01-11

就有蘋果、英偉達的旗艦芯片新品連番登場。蘋果發佈其自研電腦芯片M1系列的最後一顆芯M1 Ultra——基於統一內存架構將兩塊M1芯片“粘”在一起,實現各個核心硬件指標翻番。▲蘋果M1 Ultra的UltraFusion架構英偉達緊接著帶來“

2023-12-06

亞馬遜和甲骨文等公司各搶到5萬塊GPU。其中,谷歌通過自研的張量處理單元彌補一些芯片需求。中國科技巨頭也是英偉達芯片的大客戶,比如騰訊購買5萬塊H800 GPU,百度和阿裡巴巴分別購買3萬和2.5萬塊GPU。值得註意的是,本次

2024-03-20

有就英偉達芯片的定價策略是否會因為這些大型科技公司自研芯片而發生變化向第一財經記者給予評論,也沒有就英偉達在中國的雲服務策略提供更多信息。不過黃仁勛在采訪中仍然強調中國市場的重要性。他表示:“我們正在

2023-04-07

S23系列全線搭載高通最新采用臺積電4nm工藝制造出來的第二代驍龍8。不是三星不想用,奈何自傢芯片不太給力。過去幾年,在蘋果、高通乃至聯發科芯片產品的映襯下,三星獵戶座在性能和能效、工藝和架構上全面落後於競爭