英偉達發佈用於AI的"世界上最強大芯片"Blackwell B200 GPU


NVIDIA的H100AI芯片使其成為價值數億美元的公司,其價值可能超過Alphabet和亞馬遜。盡管競爭對手一直在奮力追趕,但也許NVIDIA即將擴大其領先優勢--憑借新的BlackwellB200GPU和GB200"超級芯片"。


NVIDIA 首席執行官黃仁勛在 GTC 現場直播中舉起他的新 GPU(左邊),右邊是 H100。

NVIDIA 表示,新的 B200 GPU 擁有 2080 億個晶體管,可提供高達 20petaflops 的 FP4 算力,而 GB200 將兩個 GPU 和一個 Grace CPU 結合在一起,可為 LLM 推理工作負載提供 30 倍的性能,同時還可能大大提高效率。NVIDIA 表示,與 H100 相比,它的成本和能耗"最多可降低 25 倍"。

NVIDIA 聲稱,訓練一個 1.8 萬億個參數的模型以前需要 8000 個 Hopper GPU 和 15 兆瓦的電力。如今,NVIDIA 首席執行官表示,2000 個 Blackwell GPU 就能完成這項工作,耗電量僅為 4 兆瓦。

NVIDIA 表示,在具有 1750 億個參數的 GPT-3 LLM 基準測試中,GB200 的性能是 H100 的 7 倍,而 NVIDIA 稱其訓練速度是 H100 的 4 倍。


這就是 GB200 的樣子。兩個 GPU、一個 CPU、一塊電路板

NVIDIA 介紹說,其中一項關鍵改進是采用第二代變壓器引擎,通過為每個神經元使用四個比特而不是八個比特,將計算能力、帶寬和模型大小提高一倍(前面提到的 FP4 的 20 petaflops)。第二個關鍵區別隻有在連接大量 GPU 時才會出現:新一代 NVLink 交換機可讓 576 個 GPU 相互連接,雙向帶寬達到每秒 1.8 TB。

這就要求 NVIDIA 打造一個全新的網絡交換芯片,其中包含 500 億個晶體管和一些自己的板載計算:NVIDIA 表示,該芯片擁有 3.6 teraflops 的 FP8 處理能力。


NVIDIA 表示將通過 Blackwell 增加 FP4 和 FP6

NVIDIA 表示,在此之前,由 16 個 GPU 組成的集群有 60% 的時間用於相互通信,隻有 40% 的時間用於實際計算。

當然,NVIDIA 還指望企業大量購買這些 GPU,並將它們包裝成更大的設計,比如 GB200 NVL72,它將 36 個 CPU 和 72 個 GPU 集成到一個液冷機架中,可實現總計 720 petaflops 的 AI 訓練性能或 1440 petaflops(又稱 1.4exaflops)的推理性能。它內部有近兩英裡長的電纜,共有 5000 條獨立電纜。


GB200 NVL72

機架上的每個托盤包含兩個 GB200 芯片或兩個 NVLink 交換機,每個機架有 18 個前者和 9 個後者。NVIDIA 稱,其中一個機架總共可支持 27 萬億個參數模型。據傳,GPT-4 的參數模型約為 1.7 萬億。

該公司表示,亞馬遜、Google、微軟和甲骨文都已計劃在其雲服務產品中提供 NVL72 機架,但不清楚它們將購買多少。

當然,NVIDIA 也樂於為公司提供其他解決方案。下面是用於 DGX GB200 的 DGX Superpod,它將八個系統合而為一,總共擁有 288 個 CPU、576 個 GPU、240TB 內存和 11.5 exaflops 的 FP4 計算能力。


NVIDIA 稱,其系統可擴展至數萬 GB200 超級芯片,並通過其新型 Quantum-X800 InfiniBand(最多 144 個連接)或 Spectrum-X800 以太網(最多 64 個連接)與 800Gbps 網絡連接在一起。

我們預計今天不會聽到任何關於新遊戲 GPU 的消息,因為這一消息是在 NVIDIA 的 GPU 技術大會上發佈的,而該大會通常幾乎完全專註於 GPU 計算和人工智能,而不是遊戲。不過,Blackwell GPU 架構很可能也會為未來的 RTX 50 系列桌面顯卡提供算力。


相關推薦

2024-03-19

兩個小時的演講中,黃仁勛公佈搭載B200芯片的GB200 Grace Blackwell超級芯片系統,以及英偉達在AI軟件(NIM微服務)、Omiverse雲、具身智能方面的最新進展。以下為演講內容回顧:黃仁勛登臺,對觀眾們強調:我希望你們搞清楚今天

2024-03-21

本,而是為擴大規模。”作為GTC大會的核心,英偉達發佈Blackwell GPU,它分為B200和GB200系列,後者集成1個Grace CPU和2個B200 GPU。NVIDIA GB200 NVL72大型機架系統使用GB200芯片,搭配NVIDIA BlueField-3數據處理單元、第五代NVLink互聯等技術,

2024-03-19

“最強AI芯片”BlackwellB200GPU的高調發佈,已不單單是穩固英偉達在芯片領域的王者地位,更是讓業內人士高呼:新的摩爾定律誕生!在隔夜的2024GTC大會上,黃仁勛介紹運行AI模型的新一代芯片和軟件。他表示,新一代的B200GPU擁

2024-03-19

都還是忍不住驚呼。這是Hooper後的新一代架構,以數學傢Blackwell命名。在性能上,它就是黃仁勛“黃氏定律”的集大成者和奠基者。以下是我用AI總結的Blackwell GPU的性能特點:高AI性能:B200 GPU提供高達20 petaflops的FP4計算能力,

2024-03-18

新爆料的細節看,B200以及RTX50系顯卡都會使用這個架構,Blackwell帶來的性能提升也是明顯的。按照最新爆料,B100將采用兩個基於臺積電CoWoS-L封裝技術的芯片,連接到8個 8-Hi HBM3e顯存堆棧,總容量為192GB,而這還不是唯一。爆料

2024-03-20

作提供動力,該公司在周一年度開發者大會上宣佈B200“Blackwell”芯片,並表示,B200在提供聊天機器人的答案等任務上的速度提高30倍。英偉達首席財務官科萊特·克雷斯(Colette Kress)周二告訴金融分析師,“我們將在今年晚些

2024-03-19

。該套件基於英偉達的Thor SoC,包括一個高性能CPU集群和Blackwell架構的下一代GPU,AI算力達到800Teraflop(每秒1萬億次浮點運算)。同時英偉達還更新自己的ISSAC機器人平臺,為開發人員提供一個強大的端到端平臺,用於開發、模擬

2024-03-19

載新款AI芯片——B200芯片,以及搭載B200 AI GPU的GB200 Grace Blackwell超級芯片系統,並且公佈英偉達在AI軟件(NIM微服務)、Omiverse雲、具身智能等方面最新進展,暗示AI融入世間萬物可謂大勢所驅。在美東時間3月18日的下午2點至2點30分

2024-03-20

NVIDIA在2024年全球計算機大會(GTC2024)上發佈的BlackwellAIGPU將為潛在買傢帶來不菲的價格標簽,據估計,該公司已為該項目投入百億美元,但回報大概率會更加驚人。NVIDIA的Blackwell人工智能圖形處理器是業界的下一個大事件,它

2024-04-03

中心舉行的GTC 2024大會上,英偉達創始人兼CEO黃仁勛帶來Blackwell架構GPU,包括用於取代H100/H200的B200 GPU,另外還有與Grace CPU相結合的GB200。可以預見,2024年裡英偉達的收入大概率會繼續攀升。

2023-11-14

NVIDIA首次發佈其下一代BlackwellB100GPU的性能預告,2024年其性能將是HopperH200的兩倍多。在SC23特別演講中,英偉達(NVIDIA)預告其代號為Blackwell的下一代GPU的性能,該GPU將於2024年首次亮相,其AI性能將是HopperGPU的2倍以上。使用的GPU

2024-03-25

”,英偉達在GTC大會上亮出不少“黑科技”。其中,基於Blackwell架構的全新GPU芯片,性能是上一代的4倍,能效提升25倍,可謂“最強AI芯片”。全新AI微服務提供從應用軟件到硬件編程的一站式服務,在硬件、軟件和系統上全棧

2024-03-20

所在。針對有媒體援引黃仁勛關於英偉達最新一代AI芯片Blackwell的定價在3萬至4萬美元,黃仁勛也予以回應。他表示:“我隻是試圖讓大傢對我們產品的定價有一定的感受,而並不打算給出具體的報價。因為根據每一個客戶的需

2024-03-20

今天凌晨,黃仁勛正式拿出新一代BlackwellGPU架構,以及基於此的B100/B200GPU芯片、GB200超級芯片、DGX超級計算機,再次將“戰術核彈”提升全新的境界,傲視全球。Blackwell B200 GPU首次采用chiplet晶粒封裝,包含兩顆B100,而B200之間再