作為首傢出貨HBM3E內存的公司,美光透露,其先進的高帶寬內存(2024年)已經全部售罄,而2025年的大部分產量也已分配完畢。美光的HBM3E內存(或美光的另一種叫法,HBM3Gen2)是首批獲得英偉達最新H200/GH200加速器認證的內存之一,因此這傢DRAM制造商似乎將成為這傢處於風口上的公司的重要供應商。
美光公司首席執行官 Sanjay Mehrotra 在本周財報電話會議的準備發言中表示:"我們 2024 年的 HBM 已經售罄,2025 年的絕大部分供應也已經分配完畢。我們仍然預計,在 2025 年的某個時候,HBM 位數份額將與我們整體 DRAM 位數份額相當"。
美光的首款 HBM3E 產品是一個 8-Hi 24 GB 堆棧,具有 1024 位接口、9.2 GT/s 數據傳輸速率和 1.2 TB/s 的總帶寬。英偉達用於人工智能和高性能計算的H200加速器將使用6個這樣的立方體,提供總計141 GB的可訪問高帶寬內存。
Mehrotra說:"我們有望在2024財年從HBM獲得數億美元的收入,預計從第三財季開始,HBM收入將增加我們的DRAM和整體毛利率。"
該公司還開始為其 12-Hi 36 GB 堆棧提供樣品,容量提高 50%。這些 KGSD 將於 2025 年量產,並將用於下一代人工智能產品。與此同時,英偉達的 B100 和 B200 看起來不會使用 36 GB HBM3E 堆棧,至少在初期不會。
人工智能服務器的需求在去年創下紀錄,看來今年也將保持高位。一些分析師認為,英偉達的 A100 和 H100 處理器(以及它們的各種衍生產品)在 2023 年占據整個人工智能處理器市場高達 80% 的份額。雖然今年英偉達在推理方面將面臨來自 AMD、AWS、D-Matrix、英特爾、Tenstorrent 和其他公司更激烈的競爭,但英偉達的 H200 看起來仍將是人工智能訓練的首選處理器,尤其是對於 Meta 和微軟這樣的大公司來說,它們已經運行著由數十萬英偉達加速器組成的艦隊。考慮到這一點,成為英偉達 H200 的 HBM3E 的主要供應商對美光來說是一件大事,因為它使美光最終能夠在 HBM 市場上占據相當大的份額。
同時,由於 HBM 堆棧中的每個 DRAM 器件都有一個較寬的接口,因此在物理尺寸上要大於普通的 DDR4 或 DDR5 IC。因此,HBM3E 內存的量產將影響美光公司商品 DRAM 的位數供應。
"HBM產量的增長將限制非HBM產品的供應增長,"Mehrotra說。"從整個行業來看,在相同的技術節點上生產一定數量的位,HBM3E 消耗的晶圓供應量大約是 DDR5 的三倍。"