傳英偉達正在開發120GB HBM2e顯存的Hopper H100 PCIe加速卡


近日有消息稱,英偉達正在開發一款HopperH100PCIe加速卡,特點是具有高達120GB的HBM2e顯存。截至目前,該公司已經發佈兩個版本的HopperH100GPU,分別是SXM5和PCIe板型。雖然兩款SKU都配備80GBVRAM,但前者用上全新的HBM3標準、而後者仍為HBM2e。

最新消息是,據 s-ss.cc 爆料,英偉達可能正在開發全新的 PCIe 擴展卡版本的 Hopper H100 GPU —— 但它並未配備 80GB HBM2e VRAM、而是增加到 120GB 。

消息稱這張新卡配備六個 HBM2e 堆棧、擁有 6144-bit 總線位寬 @ 120GB VRAM、輔以 SXM5 同款 GH100 GPU 。

總計 16896 個 CUDA 核心、帶寬超 3 TB/s、單精度性能 30 TFLOPS —— 與 SXM5 版本相當。

照此規格,英偉達 Hopper GH100 GPU 擁有 144 組 SM 流處理器 / 8 個 GPC —— 每組 GPC 包含 9 個 TPC,每 TPC 由 2 組 SM 單元組成。

每組 SM 單元最多由 128 個 FP32 單元,那樣滿血版應該是 18432 個 CUDA 核心。

GH100 GPU 完整規格參考:

● 每顆 GPU 擁有 8 GPC、72 TPCs(9 TPC / GPC)、2 SM / TPC、144 SM 單元

● 每組 SM 單元擁有 128 個 FP32 CUDA 核心,每顆 GPU 擁有 18432 個 FP32 CUDA 核心。

● 每組 SM 單元擁有 4 個第四代張量核心,每顆 GPU 擁有完整 576 個 Tensor Cores 。

● 6 組 HBM3 或 HBM2e 顯存堆棧,輔以 12 個 @ 512-bit 顯存控制器。

● 配備 60 MB 二級緩存

NVIDIA-Hopper-H100-GPU.png

以下是 SXM5 外形的 NVIDIA H100 GPU 規格:

● 每顆 GPU 擁有 8 GPC / 66 TPC、2  SM / TPC、132 SM 單元

● 每組 SM 單元擁有 128 個 FP32 CUDA 核心,每顆 GPU 擁有 16896 個 FP32 CUDA 核心。

● 每組 SM 單元擁有 4 個第四代張量核心,每顆 GPU 擁有 528 個 Tensor Cores 。

● 5 組 @ 80GB HBM3 顯存堆棧,輔以 10 個 @ 512-bit 顯存控制器。

● 配備 50MB 二級緩存

● 支持第四代 NVLink 和 PCIe 5.0

目前尚不清楚英偉達正在搞測試原型,還是醞釀推出 Hopper H100 GPU 的未來迭代。

不過該公司最近在 GTC 2022 大會上表示,Hopper GPU 現已全面投產,預計首批產品會在下月到來。


相關推薦

2023-03-23

2022年8月,美政府對NVIDIAA100、H100兩款計算加速卡實施禁令,不得銷售給中國企業,黃仁勛隨後表態會推出替代版本。很快,NVIDIA就拿出專供中國市場的A800,在已有A100的基礎上將NVLink高速互連總線的帶寬從600GB/s降低到400GB/s,其

2023-04-11

近期出現有關英偉達下一代GeForceRTX50系列的新傳言,預計將采用Blackwell架構GPU。以往一直有消息稱,Blackwell接替的是Hopper,對應的是GB100,不過似乎還會有面向消費市場的GB102。去年的Arete技術大會上,英偉達副總裁兼加速計算首

2023-03-22

全球AI計算技術盛會、一年一度的英偉達GTC大會如期而至!英偉達CEO黃仁勛(昵稱“老黃”)一如既往穿著標志性的皮衣進行78分鐘演講,滿面笑容地分享英偉達又悶聲幹哪些大事。總體來看,此次演講可總結成一大‘亮點’和

2023-11-14

英偉達的節奏,越來越可怕。就在剛剛,老黃又一次在深夜炸場——發佈目前世界最強的AI芯片H200!較前任霸主H100,H200的性能直接提升60%到90%。不僅如此,這兩款芯片還是互相兼容的。這意味著,使用H100訓練/推理模型的企業

2022-08-23

cchio(2-Stack)GPU平臺的潛力,稱該服務器平臺的性能可達英偉達A100競品的2.5倍。英特爾首席GPU計算架構師HongJiang在演講中指出,PonteVecchio具有三種配置。(via WCCFTech)從單一 OAM、到配備 Xe Links 的 x4 子系統,Ponte Vecchio GPU 不僅

2023-08-10

AI的時代已經來臨,屬於它的iPhone時刻到!就在8月8日,英偉達CEO黃仁勛,再次登上世界頂級計算機圖形學會議SIGGRAPH的舞臺。一系列重磅更新接踵而至——下一代GH200超級芯片平臺、AIWorkbench、OpenUSD……而英偉達也借此將過去這

2023-11-14

周一,半導體行業巨頭英偉達發佈新一代人工智能(AI)芯片H200,這款芯片旨在針對各種AI模型進行訓練和部署。H200芯片是目前用於訓練最先進的大型語言模型H100芯片的升級版,配備141GB的內存,特別擅長執行“推理”任務。在

2022-08-30

盡管有消息稱英偉達尚未敲定GeForceRTX4070“AdaLovelace”GPU的最終規格,但知名爆料人@Kopite7kimi還是在Twitter上放出兩套可能的參數。起初有傳聞稱,RTX4070會搭配10GB@160-bit位寬的顯存、不久後又“更新”12GB@192-bit位寬的選項,但似乎

2022-07-05

20億美元收購以色列HabanaLabs後,英特爾推出Gaudi2數據中心加速卡,並將之與面世已有兩年的英偉達A100進行對比。事實上,Habana制造兩種專用加速器——除面向神經網絡訓練的Gaudi2,還有主打推理任務的Goya/Greco。雖然早在 5 月就

2023-01-16

以往每隔18個月靠工藝迭代帶來的常規演變,以英特爾、英偉達和AMD為首的芯片巨頭之間的競爭變得異常激烈。從英特爾、英偉達、AMD三傢的產品佈局來看,三傢幾乎都集齊CPU、GPU甚至是DPU產品線。如今,他們正在醞釀更大的規

2024-02-27

據科創板日報報道,產業鏈人士透露,英偉達對華“特供版”AI芯片H20將在今年的GTC2024大會(3月18日-3月21日)開完之後,全面接受預訂,最快四周可以供貨。今年1月有消息稱,英偉達已開始接受經銷商預訂一款新的中國專用人

2022-08-25

務器中扮演串行處理的角色——因為每臺服務器的六張GPU加速卡需要通過CPU進行互連。(via WCCFTech)據悉,該公司不僅研究 CPU 層面的 I/O 與機器架構的瓶頸,還意識到其計算服務器需要專門為這樣的應用場景而定制中央處理器

2022-10-12

時,我們有望見到 RTX 6000 / L60 成為業內流行的計算 / AI 加速卡。規格方面,RTX 4090 啟用 144 組 SM 單元中的 128 組 / 16384 個 CUDA 核心,輔以 72MB L2 緩存 / 176 個 ROP 光柵單元。顯存為 24GB @ 384-bit 的 21Gbps GDDR6X,帶寬高達 1 TB/s(與 RTX

2023-11-14

,2024年其性能將是HopperH200的兩倍多。在SC23特別演講中,英偉達(NVIDIA)預告其代號為Blackwell的下一代GPU的性能,該GPU將於2024年首次亮相,其AI性能將是HopperGPU的2倍以上。使用的GPU是下一代B100,它將接替HopperH200,可以看到它剛