美光2024年和2025年大部分的HBM3E供應已經售罄


作為首傢出貨HBM3E內存的公司,美光透露,其先進的高帶寬內存(2024年)已經全部售罄,而2025年的大部分產量也已分配完畢。美光的HBM3E內存(或美光的另一種叫法,HBM3Gen2)是首批獲得英偉達最新H200/GH200加速器認證的內存之一,因此這傢DRAM制造商似乎將成為這傢處於風口上的公司的重要供應商。


美光公司首席執行官 Sanjay Mehrotra 在本周財報電話會議的準備發言中表示:"我們 2024 年的 HBM 已經售罄,2025 年的絕大部分供應也已經分配完畢。我們仍然預計,在 2025 年的某個時候,HBM 位數份額將與我們整體 DRAM 位數份額相當"。

美光的首款 HBM3E 產品是一個 8-Hi 24 GB 堆棧,具有 1024 位接口、9.2 GT/s 數據傳輸速率和 1.2 TB/s 的總帶寬。英偉達用於人工智能和高性能計算的H200加速器將使用6個這樣的立方體,提供總計141 GB的可訪問高帶寬內存。

Mehrotra說:"我們有望在2024財年從HBM獲得數億美元的收入,預計從第三財季開始,HBM收入將增加我們的DRAM和整體毛利率。"

該公司還開始為其 12-Hi 36 GB 堆棧提供樣品,容量提高 50%。這些 KGSD 將於 2025 年量產,並將用於下一代人工智能產品。與此同時,英偉達的 B100 和 B200 看起來不會使用 36 GB HBM3E 堆棧,至少在初期不會。

人工智能服務器的需求在去年創下紀錄,看來今年也將保持高位。一些分析師認為,英偉達的 A100 和 H100 處理器(以及它們的各種衍生產品)在 2023 年占據整個人工智能處理器市場高達 80% 的份額。雖然今年英偉達在推理方面將面臨來自 AMD、AWS、D-Matrix、英特爾、Tenstorrent 和其他公司更激烈的競爭,但英偉達的 H200 看起來仍將是人工智能訓練的首選處理器,尤其是對於 Meta 和微軟這樣的大公司來說,它們已經運行著由數十萬英偉達加速器組成的艦隊。考慮到這一點,成為英偉達 H200 的 HBM3E 的主要供應商對美光來說是一件大事,因為它使美光最終能夠在 HBM 市場上占據相當大的份額。

同時,由於 HBM 堆棧中的每個 DRAM 器件都有一個較寬的接口,因此在物理尺寸上要大於普通的 DDR4 或 DDR5 IC。因此,HBM3E 內存的量產將影響美光公司商品 DRAM 的位數供應。

"HBM產量的增長將限制非HBM產品的供應增長,"Mehrotra說。"從整個行業來看,在相同的技術節點上生產一定數量的位,HBM3E 消耗的晶圓供應量大約是 DDR5 的三倍。"


相關推薦

2024-02-23

。此外,該公司還透露 HBM 領域的驚人需求,聲稱今年的供應已經售罄,SK hynix 已經在為 2025 財年的主導地位做準備。這一點也不令人震驚,因為進入 2024 年,人工智能仍在蓬勃發展,英偉達(NVIDIA)和 AMD 等公司都在為下一代

2024-04-15

導體工廠,增長超過1倍的資金,總規模約為440億美元,大部分新支出將集中在泰勒市附近。據知情人士透露,三星計劃再新蓋一座芯片廠,以及一座先進封裝廠與研發設施,並將研發作業集中在一起,投資規模因市場狀況來調

2024-01-02

不足而掉鏈子。業內人士還透露,三星電子、SK 海力士、美光三大存儲公司明年的HBM產能已完全售罄。根據現有爆料信息,英偉達正準備推出兩款配備HBM3E內存的產品:配備141GB HBM3E的H200 GPU、以及GH200超級芯片,這倆產品相當時

2024-04-03

輸速度預計達1.228TB/s。鑒於如此強大的帶寬性能,市面上大部分存儲器產品都難以在該領域擊敗HBM,唯一的勝出者隻能是下一代HBM。HBM技術自2013年在半導體市場嶄露頭角以來,已擴展至第一代(HBM)、第二代(HBM2)、第三代(H

2023-11-10

近期美光公司正式發佈包括GDDR7和HBM4E內存技術在內的顯存路線圖。目前美光最高規格的GDDR6X顯存最高運行帶寬為24Gbps,顯存容量為16GB。根據美光發佈的路線圖,將在2024年中推出GDDR7顯存,運行帶寬為32Gbps,容量為16-24Gb;到2026

2024-02-07

持續領先。SK海力士占據HBM市場50%的份額,三星占比40%,美光占比10%。在很長一段時間內,SK海力士都是英偉達HBM的獨傢供應商。2023年SK海力士基本壟斷HBM3供應,今年其HBM3與HBM3E的訂單也已售罄。作為英偉達高帶寬內存 (HBM)的

2023-11-27

驗證。之前英偉達的HBM由SK海力士獨傢供應,如今三星、美光都將加入。這也意味著,三傢存儲龍頭都將為英偉達供應HBM。而HBM3e進度依據時間軸排列如下表所示:美光已於今年7月底提供8hi(24GB)NVIDIA樣品、SK海力士已於今年8月

2024-05-06

價。不過受限於DRAM總產能有限,為避免產能排擠效應,供應商已經初步調漲5%-10%,包含HBM2e,HBM3與HBM3e。之所以議價時間會提前到二季度,集邦咨詢表示原因主要包括三點:1、HBM買方對AI需求展望仍具高度信心,願意接受價格續

2024-02-14

三星電子利潤暴跌97%、SK海力士創下有史以來最大虧損、美光科技、西部數據等存儲大廠庫存持續攀升,存儲芯片價格也跌入谷底。存儲“寒冬”之下,2023年幾傢存儲大廠集體經營虧損預估達破紀錄的50億美元,創下過去15年來

2023-11-29

HBM3e 標準的采用也已步入正軌,因為業內消息人士稱,美光、SK 海力士和三星等供應商已經啟動 HBM3e 的出樣過程,據說這將是決定性的一步。 能否進入商用,結果可能會在 2024 年某個時候出現。回顧一下,HBM3e 預計將在 NVIDIA

2024-02-27

美光科技(MicronTechnology)周一表示,該公司已開始批量生產其HBM3E內存。該公司的HBM3E已知良好堆棧芯片(KGSD)將用於NVIDIA的H200計算GPU,用於人工智能(AI)和高性能計算(HPC)應用,該產品將於2024年第二季度出貨。美光透露

2024-03-07

SK海力士、三星電子和美光正在為HBM3E的主導地位展開激烈爭奪。在SK海力士壟斷HBM3市場的同時,隨著HBM供應短缺的出現,三星電子和美光正在全力爭奪下一代市場HBM3E市場的領先地位。“SK海力士、三星電子和美光中最先通過NVID

2024-03-27

自2023年以來因AI芯片需求而呈現爆炸式增長。SK海力士和美光(MU.US)一樣,均已成為英偉達(NVDA.US)新款 AI GPU的HBM存儲系統供應商,提供的產品均為最新款的“HBM3E”。高盛日前發佈研報稱,由於更強的生成式人工智能(Gen AI)需求推

2024-03-19

據介紹,在存儲半導體三大巨頭(三星電子、SK海力士、美光)中,SK海力士是首傢實現量產HBM3E供應商。HBM3E每秒可處理1.18TB數據,相當於在1秒內可處理230部全高清(FHD)級電影。在散熱方面,SK海力士表示其HBM3E采用MR-MUF技術