NVIDIA Hopper H200將於明年一季度開始采用HBM3e HBM4預計於2026年亮相


據TrendForce估計,HBM行業似乎已圍繞NVIDIA為中心,其中NVIDIA的AI訂單將主導當前和下一代HBM供應。根據市場研究,NVIDIA準備將其HBM訂單的相當一部分交給韓國巨頭三星,因為兩傢公司都開始建立對人工智能行業至關重要的業務關系。

NVIDIA-TensorRT-LLM-Hopper-AI-GPUs-1456x818.png

早在9月份就有消息稱,三星的HBM產品已通過多項資質審核,獲得NVIDIA的信任,集邦科技目前透露,三星可能會在12月份完成升級流程,明年年初開始陸續有訂單流入。

除 HBM3 之外,下一代 HBM3e 標準的采用也已步入正軌,因為業內消息人士稱,美光、SK 海力士和三星等供應商已經啟動 HBM3e 的出樣過程,據說這將是決定性的一步。 能否進入商用,結果可能會在 2024 年某個時候出現。回顧一下,HBM3e 預計將在 NVIDIA 的 Blackwell AI GPU 中首次亮相,據傳該 GPU 將於 2024 年第二季度推出,而在性能方面,它將通過采用小芯片設計帶來決定性的每瓦性能提升。

NVIDIA 在 2024 年為計算客戶制定很多計劃,該公司已經發佈 H200 Hopper GPU,預計明年將被大規模采用,隨後將推出 B100“Blackwell” AI GPU,兩者都將基於 HBM3e 內存技術。

20231123_174120_2023-11-23_173646-1.jpg

除傳統路線外,據傳 NVIDIA 還將針對 AI 領域推出基於 ARM 的 CPU,這將創造市場多元化格局,同時加劇競爭。 英特爾和 AMD 預計還將推出各自的 AI 解決方案,其中值得註意的是下一代 AMD Instinct GPU 和采用 HBM3e 內存的英特爾 Gaudi AI 加速器。

20231123_174136_2023-11-23_173712-1.jpg

最後,TrendForce 給出我們對 HBM4 的預期,特別是即將推出的內存標準將在板載芯片配置方面進行全面改造,因為有傳言稱基本邏輯芯片將采用12 納米工藝來加工晶圓,並將作為 3D 封裝 DRAM/GPU 背後的工藝,在代工廠和內存供應商之間建立協作環境。 HBM4有望標志著下一代計算能力的轉變,也可能成為人工智能行業未來突破的關鍵。


相關推薦

2023-11-14

NVIDIA首次發佈其下一代BlackwellB100GPU的性能預告,2024年其性能將是HopperH200的兩倍多。在SC23特別演講中,英偉達(NVIDIA)預告其代號為Blackwell的下一代GPU的性能,該GPU將於2024年首次亮相,其AI性能將是HopperGPU的2倍以上。使用的GPU

2024-02-27

HBM3E內存。該公司的HBM3E已知良好堆棧芯片(KGSD)將用於NVIDIA的H200計算GPU,用於人工智能(AI)和高性能計算(HPC)應用,該產品將於2024年第二季度出貨。美光透露其正在大規模生產 24 GB 8-Hi HBM3E 設備,每個設備的數據傳輸速率

2023-11-14

NVIDIA發佈全新的H200HopperGPU,該GPU現在配備美光公司生產的世界上最快的HBM3e內存。除新的人工智能平臺,NVIDIA還宣佈其GraceHopper超級芯片在超級計算機領域取得重大勝利,該芯片現在為ExaflopJupiter超級計算機提供動力。NVIDIA的H100

2024-04-18

樣化封裝和基礎芯片(如 8H、12H 和 16H)來應對。目前,NVIDIA 的 Blackwell B100/B200和AMD 的 Instinct MI300 GPU可提供高達 192 GB 的 HBM 容量。前者采用較新的 HBM3E 標準,後者采用 HBM3 DRAM 解決方案。這兩款 GPU 都有 8 個 HBM 位點,每個位點

2024-03-07

NVIDIA H200計劃2024年第二季度出貨,三星36GB HBM3E則會在第一季度投入量產,正好趕得上。

2023-11-14

NVIDIAGPU已經在AI、HPC領域遙遙領先,但沒有最強,隻有更強。現在,NVIDIA又發佈全新的HGXH200加速器,可處理AIGC、HPC工作負載的海量數據。NVIDIAH200的一大特點就是首發新一代HBM3e高帶寬內存(疑似來自SK海力士),單顆容量就多達141G

2023-11-27

據TrendForce集邦咨詢最新HBM市場研究顯示,為更妥善且健全的供應鏈管理,英偉達正規劃加入更多的HBM供應商。其中,三星的HBM3(24GB)預期於今年12月在NVIDIA完成驗證。之前英偉達的HBM由SK海力士獨傢供應,如今三星、美光都將

2024-04-15

動。4月5日,三星電子表示,隨著芯片價格反彈,預計第一季度營業利潤將增長931%。(三星將於4月30日公佈包含詳細的完整財報)從三星此次公佈的財務預報來看,當季營收約為71萬億韓元,同比上漲11.4%;營業利潤大幅上漲至6

2023-11-14

翻倍!H200,將為全球領先的AI計算平臺增添動力。它基於Hopper架構,配備英偉達H200 Tensor Core GPU和先進的顯存,因此可以為生成式AI和高性能計算工作負載處理海量數據。英偉達H200是首款采用HBM3e的GPU,擁有高達141GB的顯存。與A10

2024-03-20

NVIDIA在2024年全球計算機大會(GTC2024)上發佈的BlackwellAIGPU將為潛在買傢帶來不菲的價格標簽,據估計,該公司已為該項目投入百億美元,但回報大概率會更加驚人。NVIDIA的Blackwell人工智能圖形處理器是業界的下一個大事件,它

2024-02-07

38萬億韓元,超過分析師預期的虧損0.41萬億韓元,但較前一季度虧損大幅縮窄。另外,Q4毛利潤為2.23億韓元,同比大增9404%;毛利潤率為20%,為連續第三個季度回升;EBITDA(稅息折舊及攤銷前利潤)為3.58億韓元,同比增長99%。對

2024-03-07

場的領先地位。“SK海力士、三星電子和美光中最先通過NVIDIA認證的公司將主導HBM3E市場。到目前為止,SK海力士領先,三星和美光緊隨其後。” 知情人士表示。盡管內存制造商正在爭奪全球首次量產HBM3E,但眾所周知,實際上還

2024-05-10

英偉達(NVIDIA)的"Blackwell"系列人工智能GPU才剛剛開始出貨,其下一代架構已經呼之欲出。新架構的代號為"Rubin",以維拉-魯賓(VeraRubin)命名,它將為英偉達未來的人工智能GPU提供動力,

2024-02-10

電子為市場威脅,將快速推進HBM4,並將首先用於下一代NVIDIA圖形處理器。目前,人工智能產業正在蓬勃發展,就財務方面而言,豐厚的收入吸引我們能想到的所有大型科技公司。臺積電和 SK hynix 是提供行業所需的基本要素的兩