NVIDIA利用AI來設計和開發GPU 最新Hopper已擁有1.3萬個電路實例


在過去幾年時間裡,NVIDIA深耕AI領域,他們的GPU不僅成為HPC的首選,也成為包括AI和深度學習生態系統在內的數據中心的首選。在最新公佈的開發者博文中,NVIDIA宣佈正利用AI來設計和開發GPU,其最新的HopperGPU擁有將近13000個電路實例,而這些實例完全由AI創建。

在 NVIDIA Develope 上發佈的新博客中,該公司重申其優勢以及它自己如何利用其 AI 功能來設計其迄今為止最強大的 GPU--Hopper H100。 NVIDIA GPU 主要是使用最先進的 EDA(電子設計自動化)工具設計的,但在利用 PrefixRL 方法的 AI 的幫助下,使用深度強化學習優化並行前綴電路,公司可以設計更小、更快、更節能的芯片,同時提供更好的性能。

計算機芯片中的算術電路是使用邏輯門網絡(如 NAND、NOR 和 XOR)和電線構成的。理想的電路應具有以下特點:

● 小:較小的區域,以便更多電路可以安裝在芯片上。

● 快速:降低延遲以提高芯片的性能。

● 消耗更少的功率:芯片的功耗更低。

NVIDIA 使用這種方法設計近 13000 個 AI 輔助電路,與同樣快速且功能相同的 EDA 工具相比,它們的面積減少 25%。但是 PrefixRL 被提到是一項計算要求非常高的任務,並且對於每個 GPU 的物理模擬,它需要 256 個 CPU 和超過 32,000 個 GPU 小時。為消除這個瓶頸,NVIDIA 開發 Raptor,這是一個內部分佈式強化學習平臺,它特別利用 NVIDIA 硬件進行這種工業強化學習。

Raptor 具有多項可提高可擴展性和訓練速度的功能,例如作業調度、自定義網絡和 GPU 感知數據結構。在 PrefixRL 的上下文中,Raptor 使得跨 CPU、GPU 和 Spot 實例的混合分配工作成為可能。

這個強化學習應用程序中的網絡是多種多樣的,並且受益於以下幾點。

● Raptor 在 NCCL 之間切換以進行點對點傳輸以將模型參數直接從學習器 GPU 傳輸到推理 GPU 的能力。

● Redis 用於異步和較小的消息,例如獎勵或統計信息。

● 一種 JIT 編譯的 RPC,用於處理大容量和低延遲的請求,例如上傳體驗數據。

NVIDIA 得出結論,將 AI 應用於現實世界的電路設計問題可以在未來帶來更好的 GPU 設計。完整的論文在此處,您也可以在此處訪問開發人員博客以獲取更多信息。


相關推薦

2022-07-11

遲,同時實現更小的芯片面積,這是PrefixRL的目標。根據NVIDIA技術博客介紹,最新的Hopper H100 GPU架構使用PrefixRL AI模型設計的13000個算術電路實例。英偉達制作的模型輸出的電路比同類EDA輸出的電路小25%。這一切都在實現類似或更

2023-05-11

積極反攻的又一證據。這臺超級計算機擁有大約 26,000 個 NVIDIA H100 Hopper GPU。作為參考,世界上最快的公共超級計算機Frontier擁有 37,000 個 AMD Instinct 250X GPU。對於我們最大的客戶,我們可以在單個集群中構建多達 26,000 個 GPU 的 A3

2023-03-22

算服務DGX Cloud、加速企業創建大模型和生成式AI的雲服務NVIDIA AI Foundations等,並宣佈與日本三菱聯合打造日本第一臺用於加速藥研的生成式AI超級計算機。英偉達也發佈一系列面向元宇宙、汽車、量子計算領域的新進展,包括PaaS

2023-11-29

務Amazon Elastic Compute Cloud(EC2)上提供最高性價比和能源利用效果。Graviton4還通過對所有高速物理硬件接口進行完全加密提高安全性。AWS稱,Graviton4 將應用於內存優化的Amazon EC2 R8g 實例,讓客戶能改進高性能數據庫、內存緩存和

2023-08-10

式AI應用除各種強大的硬件之外,老黃還重磅發佈全新的NVIDIA AI Workbench來幫助開發和部署生成式AI模型。概括來說,AI Workbench為開發者提供一個統一且易於使用的工具包,能夠快速在PC或工作站上創建、測試和微調模型,並無縫

2023-12-07

成式AI的強勁需求。Instinct MI300X:1920億晶體管怪獸 完勝NVIDIA H100Instinct MI300X屬於傳統的GPU加速器方案,純粹的GPU設計,基於最新一代CDNA3計算架構。它集成八個XCD加速計算模塊(Accelerator Compute Die),每一個XCD擁有38個CU計算單元,

2024-03-29

片先進封裝技術,目前已在產品中得到應用。示例包括 NVIDIA Ampere 和 Hopper GPU。當中每一個都由一個 GPU 芯片和六個高帶寬內存立方體組成,全部位於矽中介層上。計算 GPU 芯片的尺寸大約是芯片制造工具當前允許的尺寸。Ampere有

2023-11-14

NVIDIA發佈全新的H200HopperGPU,該GPU現在配備美光公司生產的世界上最快的HBM3e內存。除新的人工智能平臺,NVIDIA還宣佈其GraceHopper超級芯片在超級計算機領域取得重大勝利,該芯片現在為ExaflopJupiter超級計算機提供動力。NVIDIA的H100

2023-01-16

—Grace Hopper Superchip還是單芯片的方式,下圖是渲染圖。Nvidia對其Grace Superchip的渲染圖:兩個帶有RAM的處理器合二為一NVIDIA?Grace Hopper架構將NVIDIA Hopper GPU與NVIDIA Grace? CPU結合在一起,在單個超級芯片中連接高帶寬和內存一致的NVIDIA

2024-03-20

B100控制在700W,和上代H100完全一致,B200則首次達到1000W。NVIDIA宣稱,Blackwell GPU能夠在10萬億參數的大模型上實現AI訓練和實時大語言模型推理。GB200 Grace Blackwell是繼Grace Hopper之後的新一代超級芯片(Superchip),從單顆GPU+單顆CPU升

2024-03-20

NVIDIA在2024年全球計算機大會(GTC2024)上發佈的BlackwellAIGPU將為潛在買傢帶來不菲的價格標簽,據估計,該公司已為該項目投入百億美元,但回報大概率會更加驚人。NVIDIA的Blackwell人工智能圖形處理器是業界的下一個大事件,它

2024-03-19

應該是應用側的部分,先展示的是生物醫藥的部分,包括NVIDIA DGX雲中的多項更新。黃仁勛宣佈新的AI微服務,用於開發和部署企業級生成式AI應用。老黃表示,未來如何開發軟件?與現在寫一行行代碼不同,未來可能就要靠一堆N

2024-03-19

Blackwell做準備。同時英偉達將持續基於AI強化生態,比如NVIDIA Omniverse Cloud將可以連接到蘋果公司混合頭顯Vision Pro、加強模型與通用機器人生態等。黃仁勛還介紹人形機器人基礎模型Project GR00T、新款人形機器人計算機Jetson Thor,

2022-11-17

NVIDIA和微軟周三宣佈開展多年合作,在雲端建立人工智能超級計算機,為微軟Azure增加數萬個NVIDIAGPU。新的協議使Azure成為第一個納入NVIDIA全AI堆棧的公共雲--包括其GPU、網絡和AI軟件。通過用NVIDIA的全套AI套件加強Azure的基礎設施