韓國記憶體巨頭SK海力士宣布開始量產全球首款12層HBM3E,記憶體總容量達到36GB,較先前8層配置的24GB容量大幅提升。
這種新設計是透過將每個 DRAM 晶片的厚度減少 40% 來實現的,從而允許堆疊更多層,同時保持相同的整體尺寸。該公司計劃於 2024 年底開始批量出貨。
HBM3E 記憶體支援 9600 MT/s 的頻寬,如果在八堆疊配置中使用,則有效速度為 1.22 TB/s。這項改進使其非常適合處理需要速度和高容量的法學碩士和人工智慧工作負載。以更快的速度處理更多數據的能力使人工智慧模型能夠更有效率地運行。
Nvidia 和 AMD 硬體
對於先進的記憶體堆疊,SK 海力士採用創新的封裝技術,包括矽通孔 (TSV) 和大規模回流模塑底部填充 (MR-MUF) 製程。這些方法對於維持新型 HBM3E 穩定、高效能運作所需的結構完整性和散熱至關重要。散熱性能的改進對於在密集的人工智慧處理任務中保持可靠性尤為重要。
除了提高速度和容量之外,HBM3E 還旨在提供增強的穩定性,SK Hynix 的專有封裝製程可確保堆疊過程中的翹曲最小化。該公司的 MR-MUF 技術可以更好地管理內部壓力,減少機械故障的機會並確保長期耐用性。
這款12 層HBM3E 產品的早期採樣於2024 年3 月開始,Nvidia 的Blackwell Ultra GPU 和AMD 的Instinct MI325X 加速器預計將成為首批使用這種增強型記憶體的產品,利用高達288GB 的 HBM3E 來支援複雜的AI 計算。 SK 海力士最近拒絕了一家不知名公司支付的 3.74 億美元預付款,以確保其能夠為 Nvidia 提供足夠的 HMB 來滿足其急需的 AI 硬體的需求。
SK 海力士總裁(AI 基礎設施負責人)Justin Kim 表示:“SK 海力士再次突破了技術限制,展示了我們在 AI 內存領域的行業領先地位。” “我們將繼續保持全球第一大人工智慧記憶體供應商的地位,穩步準備下一代記憶體產品,以克服人工智慧時代的挑戰。”