GTC 2024硬件一覽:史上最強AI芯片GB200發佈 高達2080億晶體管


當大傢還在睡夢中時,大洋彼岸有一場“科技春晚”悄然召開。沒錯,又到一年一度的GTC大會時刻。今年的GTC大會不同以往,終於恢復線下舉行,並且將從18號持續至21號。先給不解GTC的玩傢介紹一下,GTC是關於AI的NVIDIA開發者大會,會議中你可以解如何利用AI、加速計算以及數據科學去塑造甚至是改變世界。


今年的GTC峰會主題完全圍繞AI展開,2個小時的時間,老黃又一次帶來AI的變革時刻。當然除老黃的開幕演講外,後面還有900多場鼓舞人心的會議在等著你。同時此次GTC大會還吸引超過200傢展商,匯聚數千名不同行業領域的從業人員一同參與。豐富多彩的技術分享、越見非凡的創新技術,稱它是AI的盛會都不為過。想必你也好奇老黃究竟在GTC上帶來什麼驚喜吧,別著急,本篇帶你一睹GTC峰會上的那些硬件產品。


見證AI的變革時刻

峰會伊始,我們熟悉的皮衣刀客準時出場。一上來就直奔今天的主題——AI,並表示“加速式計算機的生產力已經到達一個轉折點,生成式AI正在加速發展,而我們需要以一種全新的方式進行計算,才能夠進一步提高計算機生產力。”


並且還貼心的展示其自己親手畫出的關於計算機生產力的演變流程,最後一項正是今天的重點!


改變形態的Blackwell GPU

沒錯,老黃在GTC宣佈推出新一代GPU Blackwell。這裡先介紹一下Blackwell架構,此前NVIDIA推出的顯卡一般是兩種架構,其中遊戲顯卡例如我們熟悉的RTX 40系則是Ada Lovelace架構,而面向AI、大數據等應用的專業級顯卡則采用Hopper 架構。


而老黃在大會上則表示“Blackwell不是一個芯片,它是一個平臺的名字。”意思是Blackwell架構將同時用於以上兩種類型的產品。借助這一架構,NVIDIA將推出涵蓋多個應用領域的顯卡,即RTX 50系顯卡也會是這個架構。並且從老黃手上的芯片可以看出,新的Blackwell GPU的體積明顯比上代Hopper GPU要更大一些。


至於這個架構名字的由來,則要追溯到美國科學院首位黑人院士、加州大學伯克利分校首位黑人終身教授戴維·佈萊克維爾(David Blackwell),它是著名的數學傢、統計學傢,不過很可惜的是這位教授在2010年因病去世。


恐怖的2080億晶體管

言歸正傳,讓我們繼續關註此次Blackwell GPU。“我們需要更大的GPU,如果不能更大,就把更多GPU組合在一起,變成更大的虛擬GPU。”老黃在GTC上也確實這麼幹。Blackwell架構的首個GPU為B200,由於目前4nm制程工藝已經接近極限,所以NVIDIA也玩起“拼圖”,B200采用臺積電的 4 納米(4NP)工藝蝕刻而成,由兩個芯片通過NVLink 5.0組合在一起,以10TB每秒的滿血帶寬互聯,總的晶體管數量更是達到恐怖的2080 億。


第二代Transformer引擎

除芯片形態的變化外,Blackwell還有5大創新,首先就是第二代Transformer引擎。它支持FP4和FP6精度計算。得益於此,Blackwell GPU的FP4與FP6分別是Hopper的5倍與2.5倍。


第五代NVLink互連

第五代NVLink互連則是將多個Blackwell GPU組合起來的重要工具。它與傳統的PCIe交換機不同,NVLink帶寬有限,可以在服務器內的GPU之間實現高速直接互連。目前第五代NVLink可每個GPU 提供1.8TB/s雙向吞吐量,確保多達576個GPU之間的無縫高速通信。


RAS可靠性引擎

這個RAS可靠性引擎則是基於AI實現,Blackwell 透過專用的可靠性、可用性和可維護性 (RAS) 引擎,可增加智慧復原能力,及早辨認出可能發生的潛在故障,盡可能縮短停機時間。


Secure AI安全AI功能

Secure AI負責提供機密運算功能,同時Blackwell也是業界第一款支持EE-I/O的GPU,它可以在不影響性能的前提下,維護你的數據安全,這對於金融、醫療以及AI方面有極大作用。


專用解壓縮引擎

最後一項創新技術則是關於解壓縮層面,資料分析和資料庫工作流程此前更多是仰賴CPU 進行運算。如果放到GPU中進行則可大幅提升端對端分析的效能,加速創造價值,同時降低成本。


Blackwell配備專用的解壓縮引擎,使用過程中可以配合內置的Grace CPU實現每秒900 GB的雙向頻寬,並且還能兼顧最新的壓縮格式 (如 LZ4、Snappy和Deflate等)。

超級核彈GB200

而兩個B200 GPU與Grace CPU結合就成為今天“火熱”的GB200超級芯片。這款超級芯片的性能更加驚人,你以為H100已經很快?不!GB200更快,過去,在90天內訓練一個1.8萬億參數的MoE架構GPT模型,需要8000個Hopper架構GPU。現在,你隻要2000個Blackwell GPU就可以完成。


官方稱,在標準的1750億參數GPT-3基準測試中,GB200的性能是H100的7倍,提供的訓練算力是H100的4倍。


不止是性能更快更強,Blackwell GPU還相當節能。還是同樣的操作,90天內訓練一個1.8萬億參數的MoE架構GPT模型,8000個Hopper GPU要耗費15兆瓦功耗,如今的Blackwell GPU僅需1/4的能耗就能實現。


如果你需要更強勁的GPU,NVIDIA也面向有大型需求的企業提供成品服務,提供完整的服務器。例如:GB200 NVL72,它將36個CPU和72個GPU插入一個液冷機架中,總共可實現720 petaflops的AI訓練性能或1,440 petaflops(1.4 exaflops)的推理。


與相同數量的72個H100相比,GB200 NVL72的性能絕對是逆天的存在,大模型推理性能可以提升30倍,並且成本和能耗隻有前者的1/25。

當然,最炸裂的要數適用於 DGX GB200 的 DGX Superpod,它將八個GB200 NVL72合二為一,總共有288個CPU、576個GPU、240TB內存和11.5 exaflops的FP4計算能力。老黃更是在GTC上直言“DGX Superpod就是AI的革命工廠!”


結語

以上就是本次GTC 2024的硬件相關報道,可能有玩傢會說,怎麼沒有遊戲顯卡?其實按照過往慣例,NVIDIA並沒有在GTC上推出消費級顯卡的習慣。不過本次NVIDIA在GTC 2024上推出的B100顯卡所使用的架構是Blackwell,上面我們也講過,這是一個跨越數據中心與消費級產品的架構,這也就意味著我們熟悉的GeForce顯卡應該也是同一架構的產品,不出意外的話,下半年我們就有望看到心心念念的RTX 50系顯卡!


相關推薦

2024-03-19

“最強AI芯片”BlackwellB200GPU的高調發佈,已不單單是穩固英偉達在芯片領域的王者地位,更是讓業內人士高呼:新的摩爾定律誕生!在隔夜的2024GTC大會上,黃仁勛介紹運行AI模型的新一代芯片和軟件。他表示,新一代的B200GPU擁

2024-03-19

NVIDIA的H100AI芯片使其成為價值數億美元的公司,其價值可能超過Alphabet和亞馬遜。盡管競爭對手一直在奮力追趕,但也許NVIDIA即將擴大其領先優勢--憑借新的BlackwellB200GPU和GB200"超級芯片"。NVIDIA 首席執行官黃仁

2024-03-19

。這也讓後來整場發佈會越來越像科幻片。可能是人類歷史上最科幻的一場發佈會。“今天抵達GTC現場的公司們價值1 trillion。這麼多夥伴,需要這麼多的算力,怎麼辦?我們需要大得多的GPU。把所有GPU 連接起來,成千上萬個大

2024-03-19

司。英偉達還透露,谷歌和甲骨文公司基於Blackwell的新型硬件產品將於今年晚些時候上市。黃仁勛在演講中表示,人工智能是全球經濟根本性變革的重要驅動力,而基於Blackwell架構的芯片是“推動這場新工業革命的引擎”。他在

2024-03-14

CerebrasSystems發佈他們的第三代晶圓級AI加速芯片“WSE-3”(WaferScaleEngine3),規格參數更加瘋狂,而且在功耗、價格不變的前提下性能翻一番。2019年的第一代WSE-1基於臺積電16nm工藝,面積46225平方毫米,晶體管1.2萬億個,擁有40萬個AI

2024-03-25

。在此前的GTC2024大會上,英偉達正式發佈B200和GB200系列芯片。據黃仁勛介紹,B200擁有2080億個晶體管,采用臺積電4NP工藝制程,可以支持多達10萬億個參數的AI大模型,還通過單個GPU提供20 petaflops的AI性能。

2023-01-05

國新一代超算El Capitan,性能沖上200億億次,比當前TOP500最強超算Frontior性能提升一倍,後者也是基於AMD CPU及GPU的超算。

2024-03-14

持。Cerebras 仍然是唯一為動態和非結構化稀疏性提供本機硬件加速的平臺,將訓練速度提高8 倍。您可能已經看到 Cerebras 表示其平臺比 NVIDIA 的平臺更易於使用。造成這種情況的一個重要原因是 Cerebras 存儲權重和激活的方式,並

2024-03-21

,而是與各種行業的合作夥伴共創,其目的是建立一個軟硬件結合的龐大生態。此次英偉達在算力方面的進步,對於AI創業公司們也產生深刻影響。對於大模型領域創業公司,例如OpenAI等,這顯然是利好,因為他們能以更快的頻

2024-03-19

門事件。在這場兩個小時的演講中,黃仁勛公佈搭載B200芯片的GB200 Grace Blackwell超級芯片系統,以及英偉達在AI軟件(NIM微服務)、Omiverse雲、具身智能方面的最新進展。以下為演講內容回顧:黃仁勛登臺,對觀眾們強調:我希望

2023-06-15

樣,MI300X要到秋季才能送樣。更重要的是,AMD即便在顯卡硬件上追上來,但是軟件環境還是硬傷,這次他們也升級自己的配套庫ROCm,但是跟英偉達的CUDA差距還是很大。ROCm長期隻支持Linux平臺,AMD上個月才承諾支持Win系統,而且

2023-03-27

最近幾個月,ChatGPT又帶火AI,加速AI需要高性能芯片,在這方面NVIDIA一直很領先,推動公司股價大漲,CEO黃仁勛還得到AI之父的美譽,不過AMD也沒有示弱,同樣要在AI市場大顯身手。在日前的Adobe峰會上,AMD CEO蘇姿豐也談到對AI的

2023-12-07

時預計的1500億美元上調將近兩倍,凸顯人們對人工智能硬件的期望正在快速變化。AMD越來越有信心其MI300系列能夠贏得一些科技巨頭的青睞,這可能會讓這些公司花費數十億美元的支出,投向AMD的產品。AMD表示,微軟、甲骨文和

2022-08-24

甚至超越國際旗艦產品。當地時間8月22日,第34屆HotChips芯片大會首日演講,NVIDIAHopper、AMDInstinctMI200、IntelPonteVecchio三大巨頭的通用GPU紛紛秀出肌肉,而與之並肩亮相的,就是壁仞科技BR100。會上,壁仞科技聯合創始人、CTO洪洲與