英偉達掌握AI時代“摩爾定律” 會加大中美AI公司差距麼?


當地時間3月18日,英偉達在2024GTC大會上發佈多款芯片、軟件產品。創始人黃仁勛表示:“通用計算已經失去動力,現在我們需要更大的AI模型,更大的GPU,需要將更多GPU堆疊在一起。這不是為降低成本,而是為擴大規模。”


作為GTC大會的核心,英偉達發佈Blackwell GPU,它分為B200和GB200系列,後者集成1個Grace CPU和2個B200 GPU。

NVIDIA GB200 NVL72大型機架系統使用GB200芯片,搭配NVIDIA BlueField-3數據處理單元、第五代NVLink互聯等技術,對比相同數量H100 Tensor核心的系統,在推理上有高達30倍的性能提升,並將成本和能耗降低25倍。

在AI應用方面,英偉達推出Project GR00T機器人基礎模型及Isaac機器人平臺的重要更新。


英偉達展示其AI芯片的算力在過去8年裡實現1000倍的增長,這代表AI時代的摩爾定律(算力快速增長,算力成本快速下降)正在形成。

01

實現10萬億參數AI模型的訓練和實時推理

在GTC大會上,英偉達不僅發佈算力方面的更新,也介紹其在應用方面的進展。

1.更強的訓練算力,更快、成本更低的推理

Blackwell不僅是一塊芯片,也是一個平臺。英偉達的目標是讓規模達到10萬億參數的AI模型可以輕松訓練和實時推理。


它最小的單元是B200,內置2080億個晶體管,使用定制的4NP TSMC工藝制造,采用Chiplet架構,兩個GPU dies通過每秒10TB的芯片到芯片鏈接連接成一個統一的GPU。

GB200超級芯片則將兩個B200 Tensor核心GPU通過每秒900GB的超低功耗NVLink芯片到芯片互連技術與NVIDIA Grace CPU連接。


再往上一層,則是NVIDIA GB200 NVL72,這是一個多節點、液冷的機架系統,它內含36個Grace Blackwell超級芯片,包括72個Blackwell GPU和36個Grace CPU,在NVIDIA BlueField-3數據處理單元的支持下,它能實現雲網絡加速、可組合存儲、零信任安全性以及在超大規模AI雲中的GPU計算彈性。

這個系統可以被作為"單個GPU"工作,這時它能提供1.4 exaflops的AI性能和30TB的快速內存。據稱,一個GB200 NVL72就最高支持27萬億參數的模型。

最大規模的系統則是DGX SuperPOD,NVIDIA GB200 NVL72是DGX SuperPOD的構建單元,這些系統通過NVIDIA Quantum InfiniBand網絡連接,可擴展到數萬個GB200超級芯片。

此外,NVIDIA還提供HGX B200服務器板,通過NVLink將八個B200 GPU連接起來,支持基於x86的生成式AI平臺。HGX B200通過NVIDIA Quantum-2 InfiniBand和Spectrum-X以太網網絡平臺支持高達400Gb/s的網絡速度。

GB200還將在NVIDIA DGX雲上提供給客戶,這是一個與AWS、Google雲和甲骨文雲等領先的雲服務提供商共同設計的AI平臺,為企業開發者提供專用訪問權限,以構建和部署先進的生成式AI模型所需的基礎設施和軟件。

英偉達以實際的模型訓練為例,訓練一個GPT-MoE-1.8T模型(疑似指GPT-4),此前使用Hopper系列芯片需要8000塊GPU訓練90天,現在使用GB200訓練同樣的模型,隻需要2000塊GPU,能耗也隻有之前的四分之一。


由GB200組成的系統,相比相同數量的NVIDIA H100 Tensor核心GPU組成的系統,推理性能提升30倍,成本和能耗降低25倍。


在背後支持這些AI芯片和AI算力系統的是一系列新技術,包括提升性能的第二代Transformer引擎(支持雙倍的計算和模型大小)、第五代NVLink(提供每個GPU1.8TB/s的雙向吞吐量);提升可靠性的RAS引擎(使AI算力系統能夠連續運行數周甚至數月);以及安全AI(保護AI模型和客戶數據)等。

在軟件方面,Blackwell產品組合得到NVIDIA AI Enterprise的支持,這是一個端到端的企業級AI操作系統。NVIDIA AI Enterprise包括NVIDIA NIM推理微服務,以及企業可以在NVIDIA加速的雲、數據中心和工作站上部署的AI框架、庫和工具。NIM推理微服務可對來自英偉達及合作夥伴的數十個AI模型進行優化推理。

綜合英偉達在算力方面的創新,我們看到它在AI模型訓練和推理方面的顯著進步。

在AI的模型訓練方面,更強的芯片和更先進的芯片間通訊技術,讓英偉達的算力基礎設施能夠以相對較低的成本訓練更大的模型。GPT-4V和Sora代表生成式AI的未來,即多模態模型和包括視頻在內的視覺大模型,英偉達的進步讓規模更大、更多模態和更先進的模型成為可能。

在AI推理方面,目前越來越大的模型規模和越來越高的實時性要求,對於推理算力的挑戰十分嚴苛。英偉達的AI算力系統推理性能提升30倍,成本和能耗降低25倍。不僅讓大型模型的實時推理成為可能,而且解決以往的並不算優秀的能效和成本問題。

2.著重發力具身智能

英偉達在GTC大會上公佈一系列應用方面的新成果,例如生物醫療、工業元宇宙、機器人、汽車等領域。其中機器人(具身智能)是它著重發力的方向。

它推出針對仿生機器人的Project GR00T基礎模型及Isaac機器人平臺的重要更新。


Project GR00T是面向仿生機器人的通用多模態基礎模型,充當機器人的“大腦”,使它們能夠學習解決各種任務的技能。

Isaac機器人平臺為開發者提供新型機器人訓練模擬器、Jetson Thor機器人計算機、生成式AI基礎模型,以及CUDA加速的感知與操控庫

Isaac機器人平臺的客戶包括1X、Agility Robotics、Apptronik、Boston Dynamics、Figure AI和XPENG Robotics等領先的仿生機器人公司。

英偉達也涉足工業機器人和物流機器人。Isaac Manipulator為機械臂提供最先進的靈巧性和模塊化AI能力。它在路徑規劃上提供高達80倍的加速,並通過Zero Shot感知(代表成功率和可靠性)提高效率和吞吐量。其早期生態系統合作夥伴包括安川電機、PickNik Robotics、Solomon、READY Robotics和Franka Robotics。

Isaac Perceptor提供多攝像頭、3D環繞視覺能力,這些能力對於自動搬運機器人特別有用,它幫助ArcBest、比亞迪等在物料處理操作等方面實現新的自動化水平。

02

英偉達算力井噴後,對創業公司有何影響?

在發展方式上,英偉達與OpenAI等公司有明顯的不同。

OpenAI以及Anthropic、Meta等公司是以AI模型為核心,然後運營平臺和生態;英偉達則以算力為核心,並拓展到軟件平臺和AI的相關應用。並且在應用方面,它並沒有表現出一傢壟斷的態勢,而是與各種行業的合作夥伴共創,其目的是建立一個軟硬件結合的龐大生態。

此次英偉達在算力方面的進步,對於AI創業公司們也產生深刻影響。

對於大模型領域創業公司,例如OpenAI等,這顯然是利好,因為他們能以更快的頻率,更低的成本訓練規模更大,模態更多的模型,並且有機會進一步降低API的價格,擴展客戶群體。

對於AI應用領域的創業公司,英偉達不僅將推理算力性能提高數十倍,而且降低能耗和成本。這讓AI應用公司們能在成本可承擔的前提下,拓展業務規模,隨著AI算力的進一步增長,未來AI應用公司的運營成本還可能進一步降低。

對於AI芯片領域的創業公司,英偉達的大更新讓他們感受到明顯壓力,而且英偉達提供的是一套完整的系統,包括算力芯片,芯片間通信技術,打破內存墻的網絡芯片等。AI芯片創業公司必須找到自己真正能建立優勢的方向,而不是因為英偉達這類巨頭的一兩次更新就失去存在價值。

中國的AI創業公司,因為各種各樣的原因,很難使用最新最強的英偉達AI芯片,作為替代的國產AI芯片在算力和能效比上目前仍有差距,這可能導致專註大模型領域的公司們在模型的規模擴展和迭代速度上與海外的差距拉大。

對於中國的AI應用公司,則仍有機會。因為它們不僅可以用國內的基礎模型,也可以用海外的先進開源模型。中國擁有全球頂尖的AI工程師和產品經理,他們打造的產品足可以參與全球競爭,這讓AI應用公司們進可以開拓海外市場,還有足夠龐大的國內市場做基本盤,AI時代的字節跳動、米哈遊很可能在它們中間產生。


相關推薦

2022-10-01

始人戈登·摩爾展示晶圓(圖片來源:AP)然而一周前,英偉達(NVIDIA)創始人兼CEO黃仁勛卻表達截然相反的觀點。黃仁勛表示,以類似成本實現兩倍業績預期對於芯片行業來說已成為過去,“摩爾定律已經死。”兩傢芯片巨頭

2022-10-01

宙依然“健在且活的挺好”。這兩個宇宙的主宰者分別是英偉達和英特爾。文 | 玄寧9月28日,英特爾在和英偉達總部隔著一個聖何塞機場的麥克內裡會展中心,舉辦Innovation線下大會。在主題演講中,英特爾CEO帕特·基辛格(P

2022-09-22

業正在構建下一個世界。”“摩爾定律結束。”9月21日,英偉達創始人兼CEO黃仁勛在接受包括澎湃新聞在內的媒體采訪時說。在回應外界對剛剛發佈的40系顯卡價格過高的議論時,他解釋道,以類似成本實現兩倍業績預期對於該

2024-02-17

趨勢預測,沒想到年還沒過完,就驗證好幾個從 Gemini、英偉達的 Chat With RTX到 OpenA!發佈 Sora,大傢都覺得很炸裂。朋友問我怎麼看 Sora,我談幾個觀點,總體來說就是我認為AGI很快會實現,就這幾年的事兒:第一,科技競爭最終比

2023-11-03

繼英偉達A100、H100芯片被禁止銷往中國後,美國政府又發佈一輪對華芯片“禁運”令。10月25日,美國證券交易委員會(SEC)官網披露,英偉達此前遞交的一份監管文件中所涉及的限制出口的GPU芯片禁令,立即生效。值得深思的是

2023-03-27

等到一年半之後再放出呢?比如在去年的NVIDIA發佈會上,英偉達的CEO黃仁勛直言“摩爾定律已死”,往後的芯片性能不會再遵循這個定律。當然,現代技術日新月異,摩爾定律終歸會有“死去”的一天,作為一個發展預測而存在

2024-03-19

“最強AI芯片”BlackwellB200GPU的高調發佈,已不單單是穩固英偉達在芯片領域的王者地位,更是讓業內人士高呼:新的摩爾定律誕生!在隔夜的2024GTC大會上,黃仁勛介紹運行AI模型的新一代芯片和軟件。他表示,新一代的B200GPU擁

2023-03-17

大學計算機系教授鄭緯民日前表示,ChatGPT需要三萬多片英偉達A100GPU,初始投入成本約8億美元。華安證券研究所所長尹沿技認為,2012 年以來,AI訓練任務中的算力增長(所需算力每3.5月翻一倍)已經超越芯片產業長期存在的摩

2023-03-30

近期,英偉達推出的一款計算光刻軟件引起廣泛關註,這使得計算光刻這個領域受到更多人的關註。計算光刻這個領域已經存在30年之久,但現在為什麼備受關註呢?因為這關乎摩爾定律的繼續演進,芯片的繼續微縮。什麼是計

2024-02-22

有著AI領域“最強賣鏟人”稱號的芯片巨頭英偉達真乃“又雙叒叕”公佈強勁無比的季度業績以及大幅超出市場預期的業績展望。隨著具有劃時代意義的生成式AI——ChatGPT橫空出世,意味著全球逐步邁入全新的AI時代,此後不僅

2024-02-24

最近,《連線》的記者采訪英偉達CEO黃仁勛。記者表示,與JensenHuang交流應該帶有警告標簽,因為這位NVIDIA首席執行官對人工智能的發展方向如此投入,以至於在經過近90分鐘的熱烈交談後,我(指代本采訪的記者,下同)確信

2022-09-28

制造技術。現在,兩傢最重要的美國半導體公司英特爾、英偉達,對芯片的發展速度和摩爾定律是否仍然適用產生分歧。基辛格認為摩爾定律依舊有效英特爾CEO帕特·基辛格(Pat Gelsinger)周二在一場公司發佈會上表示,摩爾定律“

2023-11-13

在英偉達10月份確定擴大下單後,蘋果、超威、博通、邁威爾等重量級客戶近期也開始對臺積電CoWoS先進封裝追單。臺積電為滿足幾大客戶的需求,不得不加快CoWoS先進封裝產能擴充腳步,明年月產能將比原訂倍增目標再增加約20%

2024-03-19

個個通過AI模擬出來的酷炫的視頻後,一切鋪墊就緒——英偉達就是這一切進步的基石。是時候該發佈重要芯片。人們對此有預期,但當B200出現的時候,現場(可能包括全世界圍觀者)都還是忍不住驚呼。這是Hooper後的新一代架