NVIDIA H100計算卡強勢壟斷AI:性能暴漲4.5倍 對手不存在的


AI世界如今最大的贏傢是誰?毫無疑問是黃仁勛的NVIDIA,佈局早,技術強,根本找不到對手,“躺著”就可以掙大錢。現在,NVIDIA又公佈最新一代HopperH100計算卡在MLPerfAI測試中創造的新紀錄。

Hopper H100早在2022年3月就發佈,GH100 GPU核心,臺積電4nm工藝,800億晶體管,814平方毫米面積。

它集成18432個CUDA核心、576個Tensor核心、60MB二級緩存,搭配6144-bit位寬的六顆HBM3/HBM2e高帶寬內存,支持第四代NVLink、PCIe 5.0總線。

相比於ChatGPT等目前普遍使用的A100,H100的理論性能提升足足6倍。

不過直到最近,H100才開始大規模量產,微軟、谷歌、甲骨文等雲計算服務已開始批量部署。

MLPerf Inference是測試AI推理性能的行業通行標準,最新版本v3.0,也是這個工具誕生以來的第七個大版本更新。

對比半年前的2.1版本,NVIDIA H100的性能在不同測試項目中提升7-54%不等,其中進步最大的是RetinaNet全卷積神經網絡測試,3D U-Net醫療成像網絡測試也能提升31%。

對比A100,跨代提升更是驚人,無延遲離線測試的變化幅度少則1.8倍,多則可達4.5倍,延遲服務器測試少則超過1.7倍,多則也能接近4倍。

其中,DLRM、BERT訓練模型的提升最為顯著。

NVIDIA還頗為羞辱性地列上Intel最新數據中心處理器旗艦至強鉑金8480+的成績,雖然有56個核心,但畢竟術業有專攻,讓通用處理器跑AI訓練實在有點為難,可憐的分數不值一提,BERT 99.9%甚至都無法運行,而這正是NVIDIA H100的最強項。

此外,NVIDIA還第一次公佈L4 GPU的性能。

它基於最新的Ada架構,隻有Tensor張量核心,支持FP8浮點計算,主要用於AI推理,也支持AI視頻編碼加速。

對比上代T4,L4的性能可加速2.2-3.1倍之多,最關鍵的是它功耗隻有72W,再加上單槽半高造型設計,可謂小巧彪悍。

幾乎所有的大型雲服務供應商都部署T4,升級到L4隻是時間問題,Google就已經開始內測。


相關推薦

2022-09-09

今年3月份的GTC大會上,NVIDIA正式發佈新一代加速顯卡H100,臺積電4nm工藝,集成800億晶體管,最高1.8萬個CUDA核心,功耗高達700W,80GBHBM3顯存。H100計算卡有SXM、PCIe5.0兩種樣式,PCIe版價格都要24萬元以上,SXM版會更貴一些,實際價

2022-09-09

HPE、浪潮、Intel、Krai、聯想、Moffett、Nettrix、NeuralMagic、NVIDIA其中,NVIDIA表現依然亮眼,首次攜H100參加MLPerf測試,並在所有工作負載中刷新世界紀錄。H100打破世界記錄,較A100性能提升4.5倍NVIDIA於今年3月份發佈基於新架構NVIDIA Hop

2023-08-17

快科技8月16日消息,近日,根據Tomshardware報道消息,NVIDIA今年年內計劃售出超過55萬塊H100計算卡。這無疑與當下的AI大模型訓練熱潮,以及隨之而來的,對算力的龐大要求有關。而NVIDIA CEO黃仁勛在本月初SIGGRAPH大會上的演講,也

2023-08-17

快科技8月16日消息,近日,根據Tomshardware報道消息,NVIDIA今年年內計劃售出超過55萬塊H100計算卡。這無疑與當下的AI大模型訓練熱潮,以及隨之而來的,對算力的龐大要求有關。而NVIDIA CEO黃仁勛在本月初SIGGRAPH大會上的演講,也

2023-08-17

快科技8月16日消息,近日,根據Tomshardware報道消息,NVIDIA今年年內計劃售出超過55萬塊H100計算卡。這無疑與當下的AI大模型訓練熱潮,以及隨之而來的,對算力的龐大要求有關。而NVIDIA CEO黃仁勛在本月初SIGGRAPH大會上的演講,也

2024-02-23

季度實現H200的首次批量出貨,預計發貨量會是H100的2倍。NVIDIA H200一直以來,在英偉達內部最大困擾是一個“凡爾賽”的問題:需求太大,供應鏈跟不上。從最初的遊戲圖形顯卡,到專業可視化,再到挖礦熱潮,再到如今的AI加

2024-03-20

B100控制在700W,和上代H100完全一致,B200則首次達到1000W。NVIDIA宣稱,Blackwell GPU能夠在10萬億參數的大模型上實現AI訓練和實時大語言模型推理。GB200 Grace Blackwell是繼Grace Hopper之後的新一代超級芯片(Superchip),從單顆GPU+單顆CPU升

2024-02-22

有著AI領域“最強賣鏟人”稱號的芯片巨頭英偉達真乃“又雙叒叕”公佈強勁無比的季度業績以及大幅超出市場預期的業績展望。隨著具有劃時代意義的生成式AI——ChatGPT橫空出世,意味著全球逐步邁入全新的AI時代,此後不僅

2024-03-19

NVIDIA的H100AI芯片使其成為價值數億美元的公司,其價值可能超過Alphabet和亞馬遜。盡管競爭對手一直在奮力追趕,但也許NVIDIA即將擴大其領先優勢--憑借新的BlackwellB200GPU和GB200"超級芯片"。NVIDIA 首席執行官黃仁

2022-08-23

Data Parallel C++ (DPC++)測試項目中,Ponte Vecchio的性能相比於NVIDIA A100可以領先1.4-2.5倍。另外,ExaSMR OpenMC計算性能可領先2倍,NekRS性能則領先0.3-1.7倍。當然,NVIDIA新一代的H100都已經發佈……Ponte Vecchio的使命是將聯合下一代可擴展至

2023-03-09

這些年,NVIDIA利用其加速計算卡、CUDA生態,在高性能計算領域混得風生水起,但因為美國制裁,A100、H100這樣先進產品,已經無法賣給中國客戶,比如之前的華為,比如新近被美國加入“實體清單”的浪潮。在摩根士丹利科技、

2023-05-11

積極反攻的又一證據。這臺超級計算機擁有大約 26,000 個 NVIDIA H100 Hopper GPU。作為參考,世界上最快的公共超級計算機Frontier擁有 37,000 個 AMD Instinct 250X GPU。對於我們最大的客戶,我們可以在單個集群中構建多達 26,000 個 GPU 的 A3

2024-02-22

而使得其對於大模型的推理速度提高10倍以上,甚至超越NVIDIA的GPU。推理速度比GPU快10倍,功耗僅1/10據介紹,Groq的大模型推理芯片是全球首個LPU(Language Processing Unit)方案,是一款基於全新的TSA 架構的Tensor Streaming Processor (TSP)

2024-03-12

NVIDIA AI GPU風頭無兩,公司市值全球第三,黃仁勛甚至聲稱對手免費也無法擊敗自己,但事實上,AMD MI300系列這一代還是可圈可點的,也吸引大量用戶。TensorWave對82名高級工程師、AI專傢進行的獨立調查顯示,大約50%的受訪者表