美光科技近日宣布,其最新研發(fā)的192GB SOCAMM2(小型壓縮附加內(nèi)存模塊)已正式進入客戶送樣階段。這款低功耗內(nèi)存產(chǎn)品旨在為AI數(shù)據(jù)中心提供更高效的存儲解決方案,通過技術(shù)創(chuàng)新實現(xiàn)性能與能效的雙重突破。

作為2025年3月發(fā)布的業(yè)界首款LPDRAM SOCAMM的升級版,SOCAMM2在相同規(guī)格尺寸下將容量提升50%,達到192GB。這一突破使得AI實時推理工作負載中首個token生成時間(TTFT)縮短超80%,顯著提升了數(shù)據(jù)處理效率。該產(chǎn)品采用美光領(lǐng)先的1-gamma DRAM制程技術(shù),能效較前代提升超20%,為大型數(shù)據(jù)中心集群的電源設(shè)計優(yōu)化提供了關(guān)鍵支持。
在性能方面,SOCAMM2的模塊化設(shè)計不僅提升了可維護性,還為未來容量擴展預(yù)留了空間。其單模組速率達9.6 Gbps,配合LPDDR5X技術(shù)的超低功耗與高帶寬特性,可滿足大規(guī)模AI平臺對高數(shù)據(jù)吞吐量的需求。據(jù)測試,與同等能效的RDIMM相比,SOCAMM2的能效提升超三分之二,同時將性能封裝體積縮小至三分之一,有效優(yōu)化了數(shù)據(jù)中心的空間利用率。
美光與NVIDIA的五年合作成果在此次產(chǎn)品中充分體現(xiàn)。SOCAMM2將低功耗服務(wù)器內(nèi)存技術(shù)引入數(shù)據(jù)中心領(lǐng)域,為AI訓練和推理系統(tǒng)設(shè)定了新的能效標準。其創(chuàng)新堆疊技術(shù)進一步簡化了液冷服務(wù)器的設(shè)計流程,全機架配置下可支持超40TB的CPU附加低功耗DRAM主存儲,為AI工作負載提供了穩(wěn)定可靠的內(nèi)存支持。

目前,美光已向重點客戶交付SOCAMM2樣品,后續(xù)量產(chǎn)計劃將根據(jù)客戶需求調(diào)整。這款產(chǎn)品的推出標志著低功耗內(nèi)存技術(shù)在AI領(lǐng)域的應(yīng)用邁入新階段,其高容量、高能效的特性有望成為未來AI平臺內(nèi)存解決方案的主流選擇。






