美光宣布,已經向多個主要客戶交付容量為36GB的12層堆疊HBM4樣品,這一里程碑時刻擴大了美光在人工智能(AI)應用內存性能和能效方面的領導地位,為開發(fā)下一代AI平臺的客戶和合作伙伴提供無縫集成。美光表示,高性能內存在支持數(shù)據中心AI訓練和推理工作負載不斷增長的需求方面發(fā)揮著關鍵作用,比起以往變得更加重要。
美光的HBM4屬于第六代HBM產品,采用了1? (1-beta) DRAM工藝制造,為2048-bit接口,每個堆棧的帶寬超過了2.0 TB/s,性能比上一代產品提高了60%以上,同時還內置自檢(MBIST)功能。擴展的接口帶來了更快速的通信,從而加速了大型語言模型和思維鏈推理系統(tǒng)的推理性能。
與美光的上一代HBM3E產品相比,這次HBM4的功率效率提高了20%以上,這種改進能以最低的功耗提供最大的數(shù)據吞吐量,從而最大限度地提高數(shù)據中心的效率。隨著生成式AI用例不斷增加,HBM4成為了一個重要的推動者,將促進醫(yī)療、金融和交通等不同領域的創(chuàng)新。
按照之前美光公布的路線圖,打算在2026年至2027年之間,推出容量在36GB至48GB、12/16層垂直堆疊的HBM4產品。到了2028年還會有HBM4E,頻率將進一步提升,容量將增加至48GB到64GB,速度也會有進一步的提升。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.