NVIDIA準備將基於Arm的Grace CPU作為獨立的企業級產品發佈


NVIDIA暗示,如果有機會,他們可能會為服務器市場推出基於Arm的GraceCPU的獨立版本。簡單回顧一下,這種高級運算芯片結合GraceCPU和HopperGPU芯片,可以充分利用整個人工智能和數據中心生態系統。NVIDIA希望通過將CPU+GPU整合到單一設計中,為客戶提供一整套方案,以專註於行業中不同類型的工作負載。

NVIDIA-Grace-CPU-Superchip-gigapixel-very_compressed-scale-4_00x-Custom-1456x887.png

Grace采用的是雙芯片封裝,有GPU+CPU和純CPU兩種產品。然而,這在一定程度上限制客戶,因為他們現在被"限制"必須要用Hopper架構或兩個CPU,而他們可能隻需要一個芯片。不過,英偉達確實有計劃單獨提供其高端 Grace CPU。

英偉達目前的 GPU 路線圖仍然顯示,該公司希望通過即將推出的 GH200、GB200 和 GX200 等架構,將其超級芯片設計擴展到 CPU+GPU 套件中,不過我們可能會在即將舉行的 GTC 上現,該公司正在將 Grace CPU 或其後續產品引入獨立服務器領域。

NVIDIA-GPU-Roadmap.png

英偉達公司首席財務官科萊特-克雷斯(Colette Kress)在富國銀行(Wells Fargo)活動上發言時,被問及公司是否有計劃為服務器行業提供獨立 CPU 中的 Grace 架構,回答非常明確,以下是她的發言:

是否會推出 Grace Hopper、GH200、GH300 等後續版本?還是隻有一個 Grace?英偉達公司基於 ARM 的 CPU 是否有市場?

隻推出 Grace 是有可能的。我們可能會在數據中心看到新的產品方案,我們也可能會看到 Grace 的機會。

-科萊特-克雷斯(英偉達公司首席財務官)

雖然NVIDIA首席財務官還沒有正式確認,但從行業未來的發展來看,該公司似乎有計劃單獨提供 Grace CPU。就 Grace CPU 的性能而言,它共有 144 個內核(每個芯片 72 個 Arm Neoverse V2),支持 960 GB 的 LPDDR5X 內存,原始帶寬1 TB/s,綜合功耗為 500W。其他規格包括 117 MB 三級緩存和 58 條 Gen5 通道,全部采用臺積電 4N 工藝節點。

鑒於NVIDIA人工智能產品已經深入市場,以獨立封裝的方式提供 Grace CPU 可能會改變數據中心的運算方式。此外,這也意味著英特爾和英偉達等公司的 x86 解決方案將面臨更激烈的競爭,因為官方基準測試顯示,Grace CPU 的效率和性能與業界同類產品相比極具競爭力。服務器並不是英偉達計劃推出獨立 CPU 的唯一市場,該公司預計到 2025 年將推出基於 Arm 的解決方案,進軍個人電腦消費市場。


相關推薦

2022-08-25

專門為這樣的應用場景而定制中央處理器。得益於針對 NVIDIA API 的高度架構優化,Grace CPU 就此應運而生。作為該公司首款服務器 CPU 產品,其效用可與 Intel / AMD 競品一較高下。作為一款單芯片,其采用臺積電 N4(4nm EUV)工藝制

2022-09-20

已有多傢合作夥伴正在V2的基礎上設計芯片方案。其中,NVIDIA第一款數據中心處理器Grace就利用V2核心作為計算基礎,並結合最大512GB LPDDR5X內存,每瓦性能比傳統架構的服務器高出多達2倍。NVIDIA Grace號稱超級芯片(SuperChip),臺積

2024-03-19

應該是應用側的部分,先展示的是生物醫藥的部分,包括NVIDIA DGX雲中的多項更新。黃仁勛宣佈新的AI微服務,用於開發和部署企業級生成式AI應用。老黃表示,未來如何開發軟件?與現在寫一行行代碼不同,未來可能就要靠一堆N

2024-03-19

持續至21號。先給不解GTC的玩傢介紹一下,GTC是關於AI的NVIDIA開發者大會,會議中你可以解如何利用AI、加速計算以及數據科學去塑造甚至是改變世界。今年的GTC峰會主題完全圍繞AI展開,2個小時的時間,老黃又一次帶來AI的變革

2022-07-05

有接近10%的出貨量份額,比2020年的3%大幅增加,亞馬遜和NVIDIA是這些服務器的主要推動者。這些領域的巨大勢頭的原因是對更多內核的要求,AMD目前是在其芯片中封裝大量內核的頂級芯片制造商之一,他們的下一代陣容預計將在

2023-11-29

據TrendForce估計,HBM行業似乎已圍繞NVIDIA為中心,其中NVIDIA的AI訂單將主導當前和下一代HBM供應。根據市場研究,NVIDIA準備將其HBM訂單的相當一部分交給韓國巨頭三星,因為兩傢公司都開始建立對人工智能行業至關重要的業務關系

2022-08-25

NVIDIA設計CPU產品已經有段時間,不過Tegra從手機、平板到盒子折騰一番後,最終發現自己的歸宿在汽車自動駕駛以及任天堂Switch遊戲機上。拋開Tegra,NVIDIA在今年的GTC2022上還公佈名為Grace的處理器,主要用於服務器、高性能計算

2023-11-16

硬件,在軟件上也將強強聯合——英偉達的 AI 代工廠(NVIDIA AI Foundry)服務正式引入 Azure。英偉達的基礎模型、框架、工具以及其 DGX Cloud AI 超級計算和服務匯集在一起,向 Azure 用戶創建生成式 AI 模型提供端到端的解決方案。

2023-11-02

,名為“Isambard-AI”。據解,這款超級計算機將使用5448個NVIDIA的GH200GraceHopperSuperchips,能提供大約200FP64PetaFLOPS性能,足以讓這臺超級計算機躋身全球前五的行列。Isambard-AI超算系統基於HPE Cray EX架構構建,擁有近25PB的存儲空間,

2023-08-10

式AI應用除各種強大的硬件之外,老黃還重磅發佈全新的NVIDIA AI Workbench來幫助開發和部署生成式AI模型。概括來說,AI Workbench為開發者提供一個統一且易於使用的工具包,能夠快速在PC或工作站上創建、測試和微調模型,並無縫

2023-11-14

NVIDIA發佈全新的H200HopperGPU,該GPU現在配備美光公司生產的世界上最快的HBM3e內存。除新的人工智能平臺,NVIDIA還宣佈其GraceHopper超級芯片在超級計算機領域取得重大勝利,該芯片現在為ExaflopJupiter超級計算機提供動力。NVIDIA的H100

2023-01-16

—Grace Hopper Superchip還是單芯片的方式,下圖是渲染圖。Nvidia對其Grace Superchip的渲染圖:兩個帶有RAM的處理器合二為一NVIDIA?Grace Hopper架構將NVIDIA Hopper GPU與NVIDIA Grace? CPU結合在一起,在單個超級芯片中連接高帶寬和內存一致的NVIDIA

2023-05-15

整體的性能達到A64FAX的近2倍,TDP為320W。最後,C-DAC 還將準備推出面向HPC 系統的軟件和開發工具,以充分發揮其AUM處理器的性能潛力。C-DAC預計AUM處理器預計將在 2023 ~ 2024 年上架,到 2024 年底將幫助印度國傢超級電腦 (NSM) 計劃

2022-07-20

鼓勵軟件與集成電路產業的發展。這就吸引一批海外人士準備回國創業,中國手機芯片巨頭展訊(現在的展銳)就是在這個階段成立的,這也是國產大芯片發展上值得寫下濃厚一筆的成功嘗試。與此同期,瑞芯微和炬力相繼成立