你見過晶圓大小的芯片嗎?這傢AI獨角獸推新品對標英偉達H100


當芯片制造商都在試圖將芯片往小設計時,而這傢公司卻反其道而行之。半導體初創公司CerebrasSystems公司周三(3月13日)推出一款新的芯片WSE-3,而它的尺寸卻類似晶圓大小,或者說比一本書還要大,單體面積達到約462.25平方厘米。它是目前最大GPU面積的56倍。


據悉,該款芯片將4萬億個晶體管組織在90萬個核心中

該芯片針對人工智能訓練的工作負載進行優化。Cerebras公司聲稱,配備2048個WSE-3芯片的服務器集群可以在一天內訓練出市場上最先進的開源語言模型之一Llama 2 70B。

替代英偉達

Cerebras是一傢美國人工智能芯片的獨角獸企業,它背後的投資團隊也都實力夠硬。最新一筆融資是在2021年由Alpha Wave Venture和阿佈紮比增長基金領投,融資金額2.5億美元,其他的投資人士包括:OpenAI創始人山姆·奧特曼、AMD前首席技術官Fred Weber等。

2021年,Cerebras公司首次亮相WSE-2芯片,集成1.2萬億個晶體管、40萬個核心。在同行都在將晶圓分割成數百顆獨立芯片之時,Cerebras公司則是選擇將整個晶圓做成一顆芯片

而最新發佈的WSE-3則是從WSE-2改進而來的。它較WES-2又增加1.4萬億個晶體管,並擁有90萬個計算核心、44GB的板載SRAM內存。強化部分是通過從7納米制造工藝更新到5納米節點所實現的。

據該公司稱,WSE-3在人工智能工作負載方面的性能是其前身的兩倍,它的峰值速度可以達到每秒125千萬億次計算

Cerebras還將WSE-3定位為比英偉達顯卡更為高效的替代品。根據Cerebras官網的數據,該芯片4萬億個晶體管數完全碾壓英偉達H100 GPU的800億個;核處理器數是單個英偉達H100 GPU的52倍;片上存儲量是H100的880倍。


WSE-3芯片為Cerebras公司的CS-3超級計算機提供動力,CS-3可用於訓練具有多達24萬億個參數的人工智能模型,對比由WSE-2和其他常規人工智能處理器驅動的超級計算機,這一數據是個重大飛躍。

加速數據傳輸

雖說將晶圓大小的芯片和單個英偉達H100 GPU相比較並不公平,不過若從數據傳輸速度的角度來看,不將晶圓切割成單獨的芯片確實有它的優勢。

根據Cerebras公司的說法,使用單一的大型處理器可以提高人工智能訓練工作流程的效率。當WSE-3上的4萬億個晶體管在晶圓上互連時,將會大大加快生成式人工智能的處理時間。

人工智能模型就是相對簡單的代碼片段的集合,這些代碼片段被稱為人工神經元。這些神經元被重新組織成集合(稱為層)。當人工智能模型接收到一個新任務時,它的每一層都會執行任務的一部分,然後將其結果與其他層生成的數據結合起來。

由於神經網絡太大,無法在單個GPU上運行,因此,這些層需要分佈在數百個以上的GPU上,通過頻繁地交換數據來協調它們的工作。

基於神經網絡架構的具體特性,隻有獲得前一層的全部或部分激活數據,才能在開始分析數據,並提供給下一層。也就意味著,如果這兩層的數據運行在不同的GPU上,信息在它們之間傳輸可能需要很長時間。芯片之間的物理距離越大,數據從一個GPU轉移到另一個GPU所需的時間就越長,這會減慢處理速度。

Cerebras的WSE-3有望縮短這一處理時間。如果一個人工智能模型的所有層都在一個處理器上運行,那麼數據隻需要從芯片的一個角落傳輸到另一個角落,而不是在兩個顯卡之間傳輸。減少數據必須覆蓋的距離可以減少傳輸時間,從而加快處理速度。

該公司指出,在如今的服務器集群中,數以萬計的GPU被用來處理一個問題,而若是將芯片數量減少50倍以上,就可以降低互連成本以及功效,同時或許也可以解決消耗大量電力的問題。

Cerebras聯合創始人兼CEO Andrew Feldman稱,“當我們八年前開始這一旅程時,每個人都說晶圓級處理器是白日夢…WSE-3是世界上最快的人工智能芯片,專為最新的尖端人工智能工作而打造。”

對於新推出地WSE-3芯片,分析公司Intersect360 Research首席執行官Addison Snell認為,Cerebras的WSE-3人工智能芯片和CS-3系統可以使部分高性能計算用戶受益。

他指出,“該芯片在相同的成本和功率下將性能提高一倍。”

不過,Tirias Research創始人Jim McGregor則較為現實地指出,盡管這傢初創公司增長迅速,並且有能力提高其平臺的可擴展性,但與占主導地位的人工智能供應商英偉達相比,它仍然是一傢規模較小的公司。

他還指出,Cerebras專註於人工智能的一個方面,那就是訓練,不過訓練隻是大型語言模型市場的一個利基市場。而英偉達提供許多其他方面產品。


相關推薦

2024-02-23

偉達一直面臨著供應鏈管理的嚴峻考驗。英偉達采取的無晶圓廠和承包制造策略,在一定程度上,提高供應鏈靈活性。通過與多傢供應商合作,英偉達能夠集中資源於產品設計、質量保證、營銷和客戶支持上,同時避免運營制造

2024-03-08

計算服務,CoreWeave則是去年憑借英偉達的支持坐擁數萬塊芯片狂攬算力大單的GPU雲服務黑馬。2023年初,CoreWeave找到Inflection並為其提供幾千張H100 GPU。英偉達看中這個組合的巨大潛力,先後向兩傢公司投資數億美元,抬高Coreweave

2023-08-29

達那裡獲得2萬多顆A100或H100GPU。 H100是英偉達最新旗艦AI芯片,價值4萬美元。它的前一代是A100芯片,價值1萬美元。這些財大氣粗的采購者是目前行業領先的AI公司,包括OpenAI、谷歌、Anthropic、Inflection、埃隆馬斯克(Elon Musk)旗

2023-11-03

。02算力霸權無休止的打壓和封鎖。如孟晚舟所說,算力大小決定著AI迭代與創新的速度,也影響著經濟發展的速度。放眼全球,美國占據高端芯片金字塔頂端,並利用國傢強權對產業鏈進行把控,對臺積電等企業進行拉攏,以

2023-10-21

國在人工智能上的發展,美國本周也是出大招,加強對AI芯片的管控。從新規管控看,美國將13傢中國GPU企業列入實體名單,其中包含壁仞科技、摩爾線程等。此外,英偉達一系列人工智能所需要的芯片也統統被禁止出口,這也

2023-12-07

三舉行的AMD投資者大會上,表示將使用AMD最新的人工智能芯片InstinctMI300X。此舉表明,科技界正在積極尋求昂貴的英偉達GPU的替代品。MI300X被業界寄予厚望,畢竟“天下苦英偉達久矣”,後者的旗艦GPU不僅價格高昂,而且供貨數

2024-09-12

馬斯克在出席All-In Summit 2024活動時表示,特斯拉的下代AI芯片Dojo 2將於2025年末批量裝備。馬斯克強調,特斯拉的AI生態系統構築精妙,其中Dojo扮演著模型訓練的核心角色,而部署於車輛中的專用芯片則專註於模型推理,兩者相輔

2023-06-15

主研發的曦雲MXC500系列GPU成功點亮,隻用5個小時就完成芯片功能測試。曦雲MXC系列是該公司研發的用於AI訓練及通用計算的GPU芯片,其中MXC500是沐曦對標A100/A800的算力芯片,FP32浮點性能可達15TFlops,作為對比的是A100顯卡FP32 性能

2023-10-21

快科技10月21日消息,對於美國對AI芯片的出口管制,英偉達可以算是最受傷的企業之一。對此,黃仁勛回應稱,正在盡快解相關規定,整晚都在與公司團隊討論,這對於中國大陸市場與產業當然會有影響。不過,黃仁勛認同國安

2022-07-22

日在油管上意外自曝的一支泄露視頻,讓我們預見 AMD 的對標產品也即將到來。由當前已撤下(手快的 Reddit 網友有保存)的視頻內容可知,AMD Noise Suppression 采用與英偉達類似的 AI 降噪方案,通過將魔法註入音頻管道來消除輸入

2024-02-26

道超車的結局都是有田下山,LPU也不例外。大模型對內存大小也有著很高的要求。參數量越大的模型,運行時所需要存儲的數據也會更多。SRAM雖然快,但缺陷是容量小,通常隻有4-16MB。Groq研發團隊多年苦心鉆研,最終也隻是將L

2023-03-22

倍以上,使得2nm及更先進芯片的生產成為可能。全球最大晶圓廠臺積電、全球光刻機霸主阿斯麥、全球最大EDA巨頭新思科技均參與合作並引入這項技術。老黃還直接上一堂光刻機小課堂,配合動畫講解芯片制造的最關鍵設備光刻

2023-05-06

據媒體報道,Meta從英國人工智能(AI)芯片公司Graphcore挖來一個團隊,該團隊此前在挪威奧斯陸工作,直到去年年底還在Graphcore開發AI網絡技術。據悉,該團隊共有10人,他們在Graphcore工作到去年12或今年1月,隨後在今年2月或3月

2023-03-30

的解決方法是采用逆向光刻的思維,先給定一個圖像,即晶圓上的電路設計,逆向推測出所需要的掩膜和光源,這就是所謂的計算光刻。據新思的科普,在尺寸非常小時,特征彼此距離更近,通常無法清晰準確地將掩模圖案刻到