美光科技(MicronTechnology)周一表示,該公司已開始批量生產其HBM3E內存。該公司的HBM3E已知良好堆棧芯片(KGSD)將用於NVIDIA的H200計算GPU,用於人工智能(AI)和高性能計算(HPC)應用,該產品將於2024年第二季度出貨。
美光透露其正在大規模生產 24 GB 8-Hi HBM3E 設備,每個設備的數據傳輸速率為 9.2 GT/s,峰值內存帶寬超過 1.2 TB/s。與 HBM3 相比,HBM3E 將數據傳輸速率和峰值內存帶寬提高 44%,這對於像 NVIDIA 的 H200 這樣對帶寬要求極高的處理器尤為重要。
NVIDIA 的 H200 產品采用 Hopper 架構,計算性能與 H100 相同。同時,它配備 141 GB HBM3E 內存,帶寬達 4.8 TB/s,比 H100 的 80 GB HBM3 和 3.35 TB/s 帶寬有顯著提升。
美光使用其 1β(1-beta)工藝技術生產其 HBM3E,這對該公司來說是一項重大成就,因為該公司將其最新的生產節點用於數據中心級產品,這是對制造技術的一種考驗。隨著美光即將於 2024 年 3 月發佈 36 GB 12-Hi HBM3E 產品,代表著公司的人工智能內存路線圖得到進一步鞏固,與此同時這些設備接下來將用於何處還有待觀察。
領先於競爭對手 SK Hynix 和三星開始量產 HBM3E 內存是美光公司取得的一項重大成就,目前美光公司在 HBM 領域占據 10% 的市場份額。此舉對該公司至關重要,因為它使美光能夠比競爭對手更早推出高端產品,從而有可能增加收入和利潤率,同時獲得更大的市場份額。
美光科技執行副總裁兼首席業務官 Sumit Sadana 表示:"美光在 HBM3E 這一裡程碑上實現三連冠:領先的上市時間、同類最佳的行業性能以及與眾不同的能效特性。人工智能工作負載在很大程度上依賴於內存帶寬和容量,美光通過我們業界領先的 HBM3E 和 HBM4 路線圖,以及我們面向人工智能應用的全套 DRAM 和 NAND 解決方案組合,在支持未來人工智能的大幅增長方面處於非常有利的位置。"