NVIDIA發佈Hopper H200 GPU與基於Grace Hopper的Jupiter超算項目


NVIDIA發佈全新的H200HopperGPU,該GPU現在配備美光公司生產的世界上最快的HBM3e內存。除新的人工智能平臺,NVIDIA還宣佈其GraceHopper超級芯片在超級計算機領域取得重大勝利,該芯片現在為ExaflopJupiter超級計算機提供動力。

NVIDIA的H100 GPU是迄今為止業界需求量最大的人工智能芯片,但NVIDIA希望為客戶提供更高的性能。HGX H200是最新的人工智能高性能計算平臺,由H200 Tensor Core GPU驅動。這些 GPU 在硬件和軟件上都采用最新的 Hopper 優化技術,同時提供迄今為止世界上最快的內存解決方案。

NVIDIA-H200-GPU-Grace-Hopper-Superchips-_7.png

NVIDIA H200 GPU配備美光的HBM3e顯存解決方案,容量最高可達141 GB,帶寬達4.8 TB/s,與NVIDIAA100相比帶寬增加2.4倍,容量增加一倍。在Llama 2(700億參數LLM)等應用中,這種新的內存解決方案使英偉達的人工智能推理性能比H100 GPU提高近一倍。

在解決方案方面,NVIDIAH200 GPU將廣泛應用於4路和8路GPU配置的HGX H200服務器。HGX 系統中的 8 路 H200 GPU 配置可提供 32 PetaFLOPs 的 FP8 計算性能和 1.1 TB 的內存容量。

NVIDIA-H200-GPU-Grace-Hopper-Superchips-_-1.png

這些 GPU 還將與現有的 HGX H100 系統兼容,使客戶更容易升級他們的平臺。NVIDIA合作夥伴,如華碩(ASUS)、華擎(ASRock Rack)、戴爾(Dell)、Eviden、技嘉(GIGABYTE)、惠普(Hewlett Packard Enterprise)、英格拉思(Ingrasys)、聯想(Lenovo)、QCT、威聯(Wiwynn)、超微(Supermicro)和緯創(Wistron),這些廠商將在2024年第二季度H200 GPU上市時提供更新的解決方案。

c218bbb5-bcbd-4f95-8e96-92d0185e06d_mid.jpg

除發佈 H200 GPU 之外,NVIDIA還宣佈一項由其 Grace Hopper 超級芯片(GH200)驅動的大型超級計算機項目。這臺超級計算機被稱為"木星"(Jupiter),位於德國尤利希研究中心(Forschungszentrum Jülich),是歐洲高性能計算聯合項目(EuroHPC Joint Undertaking)的一部分,由 Eviden 和 ParTec 公司承包。這臺超級計算機將用於材料科學、氣候研究、藥物發現等領域。這也是英偉達於11月發佈的第二臺超級計算機,上一臺是Isambard-AI,可提供高達21 Exaflops的人工智能性能。

在配置方面,Jupiter 超級計算機基於 Eviden 的 BullSequana XH3000,采用全液冷架構。它總共擁有 24000 個英偉達 GH200 Grace Hopper 超級芯片,這些芯片通過公司的 Quantum-2 Infiniband 互聯。考慮到每個格雷斯 CPU 包含 288 個 Neoverse 內核,我們將看到 Jupiter 單是 CPU 方面就有近 700 萬個 ARM 內核(確切地說是 691.2 萬個)。

性能指標包括 90 Exaflops 的人工智能訓練和 1 Exaflop 的高性能計算。這臺超級計算機預計將於 2024 年安裝完畢。總體而言,這些都是英偉達公司面向未來的重大更新,它將繼續以其強大的硬件和軟件技術引領人工智能世界的發展。


相關推薦

2023-11-14

建自己的超級計算機。德國尤裡希超級計算中心將在超算JUPITER中使用GH200超級芯片。這臺超級計算機將成為歐洲第一臺超大規模超級計算機,是歐洲高性能計算聯合項目(EuroHPC Joint Undertaking)的一部分。Jupiter超級計算機基於Evid

2023-11-02

,名為“Isambard-AI”。據解,這款超級計算機將使用5448個NVIDIA的GH200GraceHopperSuperchips,能提供大約200FP64PetaFLOPS性能,足以讓這臺超級計算機躋身全球前五的行列。Isambard-AI超算系統基於HPE Cray EX架構構建,擁有近25PB的存儲空間,

2023-11-29

亞馬遜發力捍衛在雲計算領域的領先地位,一邊升級自研的雲芯片、推出亞馬遜版的GPT——人工智能(AI)聊天機器人,一邊深化同英偉達的合作,推出基於英偉達芯片的新服務、和英偉達共同研發超級計算機。AWS的副總裁Dave Br

2023-03-23

GTC 2023春季大會上,NVIDIA宣佈與Quantum Machines合作打造全球首個GPU加速的量子計算系統NVIDIA DGX Quantum。該系統結合NVIDIA Grace Hopper CPU GPU超級芯片、CUDA Quantum開源編程模型組成的全球最強加速計算平臺,以及Quantum Machines的全球最先

2023-11-29

據TrendForce估計,HBM行業似乎已圍繞NVIDIA為中心,其中NVIDIA的AI訂單將主導當前和下一代HBM供應。根據市場研究,NVIDIA準備將其HBM訂單的相當一部分交給韓國巨頭三星,因為兩傢公司都開始建立對人工智能行業至關重要的業務關系

2023-11-14

NVIDIA首次發佈其下一代BlackwellB100GPU的性能預告,2024年其性能將是HopperH200的兩倍多。在SC23特別演講中,英偉達(NVIDIA)預告其代號為Blackwell的下一代GPU的性能,該GPU將於2024年首次亮相,其AI性能將是HopperGPU的2倍以上。使用的GPU

2023-01-16

—Grace Hopper Superchip還是單芯片的方式,下圖是渲染圖。Nvidia對其Grace Superchip的渲染圖:兩個帶有RAM的處理器合二為一NVIDIA?Grace Hopper架構將NVIDIA Hopper GPU與NVIDIA Grace? CPU結合在一起,在單個超級芯片中連接高帶寬和內存一致的NVIDIA

2024-03-15

VFIO)更新主要是驅動程序補丁和其他常規更改。不過,NVIDIA的Grace-Hopper超級芯片也因此有新的驅動程序。NVIDIA公司為 Grace Hopper 超級芯片提供一個 VFIO PCI 變體模塊,以應對該大型芯片的特殊性。Linux 6.9 的VFIO 拉取請求解釋英偉

2023-12-01

NVIDIA暗示,如果有機會,他們可能會為服務器市場推出基於Arm的GraceCPU的獨立版本。簡單回顧一下,這種高級運算芯片結合GraceCPU和HopperGPU芯片,可以充分利用整個人工智能和數據中心生態系統。NVIDIA希望通過將CPU+GPU整合到單一

2023-05-11

計算機中 H100 GPU 的數量。A3 超級計算機建立在源自公司 Jupiter 數據中心網絡結構的主幹上,該主幹通過光學鏈路連接地理上不同的 GPU 集群。“對於幾乎每一種工作負載結構,我們都實現與更昂貴的現成非阻塞網絡結構無法區分

2023-08-10

機圖形學頂會SIGGRAPH上,老黃宣佈英偉達最新的超級芯片NVIDIADGXGH200GraceHopper。這塊芯片搭載全球最快的內存,不僅帶寬每秒5TB,內存容量更是暴增接近50%來到141GB,“任何大語言模型都能運行”。同時,英偉達還宣佈和Hugging Face

2023-11-14

NVIDIAGPU已經在AI、HPC領域遙遙領先,但沒有最強,隻有更強。現在,NVIDIA又發佈全新的HGXH200加速器,可處理AIGC、HPC工作負載的海量數據。NVIDIAH200的一大特點就是首發新一代HBM3e高帶寬內存(疑似來自SK海力士),單顆容量就多達141G

2024-03-20

NVIDIA在2024年全球計算機大會(GTC2024)上發佈的BlackwellAIGPU將為潛在買傢帶來不菲的價格標簽,據估計,該公司已為該項目投入百億美元,但回報大概率會更加驚人。NVIDIA的Blackwell人工智能圖形處理器是業界的下一個大事件,它

2024-01-20

快科技1月20日消息,NVIDIA AI GPU無疑是當下的硬通貨,從科技巨頭到小型企業都在搶。Meta(Facebook) CEO紮克伯格近日就透露,為訓練下一代大語言模型Llama 3,Meta正在建造龐大的計算平臺,包括將在今年底前購買多達35萬塊NVIDIA H100 G