NVIDIA用PrefixRL人工智能模型設計出小25%的電路 使GPU更加高效


在設計集成電路時,工程師的目標是生產出更容易制造的高效設計。如果他們設法降低電路尺寸,那麼制造該電路的經濟性也會下降。英偉達公司在其技術博客上發佈一項技術,該公司使用一種名為PrefixRL的人工智能模型。利用深度強化學習,英偉達公司使用PrefixRL模型來超越主要供應商的傳統EDA(電子設計自動化)工具,如Cadence、Synopsys或Siemens/Mentor。

EDA供應商通常會在內部實施人工智能解決方案,以實現矽片放置和路由(PnR);然而,英偉達的PrefixRL解決方案似乎在該公司的工作流程中創造奇跡。

創建一個深度強化學習模型,旨在保持與EDA PnR嘗試相同的延遲,同時實現更小的芯片面積,這是PrefixRL的目標。

根據NVIDIA技術博客介紹,最新的Hopper H100 GPU架構使用PrefixRL AI模型設計的13000個算術電路實例。英偉達制作的模型輸出的電路比同類EDA輸出的電路小25%。這一切都在實現類似或更好的延遲。下面你可以在圖中比較PrefixRL制作的64位加法器設計和一個業界領先的EDA工具制作的相同設計:

訓練這樣一個模型是一項計算密集型的任務。英偉達公司報告說,設計一個64位加法器電路的訓練,每個GPU需要256個CPU核心和32000個GPU小時。該公司開發Raptor,這是一個內部分佈式強化學習平臺,利用英偉達硬件的獨特優勢進行這種工業強化學習,你可以看到下面的內容以及它的操作方式:

總的來說,該系統相當復雜,需要大量的硬件和投入;然而,回報是更小、更高效的GPU。


相關推薦

2022-07-11

最先進的 EDA(電子設計自動化)工具設計的,但在利用 PrefixRL 方法的 AI 的幫助下,使用深度強化學習優化並行前綴電路,公司可以設計更小、更快、更節能的芯片,同時提供更好的性能。計算機芯片中的算術電路是使用邏輯門

2024-02-10

⼤約還需要5年時間。參考資料:https://www.businessinsider.com/nvidia-uses-ai-to-produce-its-ai-chips-faster-2024-2https://www.wsj.com/articles/designing-chips-is-getting-harder-these-engineers-say-chatbots-and-ai-can-help-092b4c4

2024-03-19

大會上發佈的,而該大會通常幾乎完全專註於 GPU 計算和人工智能,而不是遊戲。不過,Blackwell GPU 架構很可能也會為未來的 RTX 50 系列桌面顯卡提供算力。

2024-03-29

類智能水平的首次展示。在接下來的10年裡,我們開始將人工智能用於許多實際任務,例如面部識別、語言翻譯以及推薦電影和商品。再過十五年,人工智能已經發展到可以“合成知識”(synthesize knowledge)的地步。生成式人工

2024-02-13

繼日前傳言英偉達將入局定制芯片業務之後,人工智能熱潮又將英偉達推向一個新高峰。據報道,隨著英偉達股價達到734.96美元的歷史新高,公司市值達到1.82萬億美元,而零售巨頭亞馬遜的市值為1.81萬億美元,這意味著公司躍

2023-08-10

USD……而英偉達也借此將過去這數十年的所有創新,比如人工智能、虛擬世界、加速、模擬、協作等等,全部融合到一起。在這個時代裡,或許正如老黃的經典名言:“買得越多,省得越多!”英偉達最強AI超算再升級在5年前的

2024-02-21

究的傳奇處理器架構師JimKeller批評被外界認為是英偉達(NVIDIA)“護城河”的CUDA架構和軟件堆棧,並將其比作x86,稱之為“沼澤”。他指出,就連英偉達本身也有多個專用軟件包,出於性能原因,這些軟件包依賴於開源框架。

2024-02-27

NVIDIA圖形處理器已成為人工智能業務蓬勃發展的基石,但該公司正努力追趕行業需求。ASIC芯片提供定制化的矽設計,可對特定計算工作負載進行硬件加速,很快就會成為該領域的下一個風口。根據最近在網上發佈的招聘信息,Me

2023-05-11

的 Google I/O 大會上宣佈的。開發者大會已經成為Google許多人工智能軟件和硬件能力的展示。在微軟將 OpenAI 的技術應用於 Bing 搜索和辦公生產力應用程序之後,Google加速其 AI 開發。該超級計算機面向希望訓練大型語言模型的客戶

2024-03-14

125 FP16 PetaFLOPS。Ceberas 的 WSE-3 將用於訓練一些業界最大的人工智能模型,能訓練多達 24 萬億個參數的 AI 模型;其打造的集群規模高達 2048 個 CS-3 系統。值得一提的是,當 Cerebras 提到內存時,他們談論的更多是 SRAM,而不是片外

2022-07-13

HPC和AI領域的專傢能夠輕松將他們的應用移植到公有雲、NVIDIA DGX系統或者配備大量NVIDIA GPU的超算中心當中。對於已經使用cuQuantum軟件開發工具包在GPU上模擬量子線路的量子組織,通過QODA,量子研究人員還可以在相同的cuQuantum模

2024-03-19

的FP8計算能力,用於支持大規模GPU集群的通信。擴展性:NVIDIA的系統可以擴展到數萬個GB200超級芯片,通過800Gbps的Quantum-X800 InfiniBand或Spectrum-X800以太網連接。大規模部署:GB200 NVL72設計可以將36個CPU和72個GPU集成到一個液冷機架中

2023-12-06

自步入人工智能時代以來,中國一直是英偉達的大客戶。2022年,英偉達銷售數據中,25%來自中國客戶,尤其是一些互聯網大廠,他們對英偉達的算力產品,比如H800,可以說是瘋狂買買買。但是隨著美國在2023年10月更新先進半導

2024-03-08

機器學習這一更廣泛學科中的一個領域,而機器學習又是人工智能的一個子集。它涉及使用復雜的數學模型(稱為神經網絡)從給定數據中提取信息。一個例子是確定所呈現的圖像描繪特定動物的概率。為此,模型需要進行“訓