Micron Technology(納斯達克股票代碼:MU)已開始向客戶分發其 256GB SOCAMM2 低功耗伺服器記憶體模組的樣品,該模組旨在滿足 AI 資料中心日益增長的能源和效能需求。這款最新模組是 Micron 先前推出的 192GB SOCAMM2 的升級版,能夠支援高達 2TB 的 CPU 附接記憶體,同時功耗僅為傳統 DDR5 暫存器模組(RDIMMs)的約三分之一。
儘管有此創新,Micron 股價在美國早盤交易中基本保持不變,小幅下跌至 400.42 美元,反映出投資者持謹慎態度,因為該記憶體仍處於樣品階段,尚未全面部署。
Micron Technology, Inc., MU
Nvidia 資料中心 CPU 產品主管 Ian Finder 將 SOCAMM2 模組描述為「賦能次世代 AI CPU」,強調其對高效能運算(HPC)和生成式 AI 工作負載的潛在影響。Micron 與 Nvidia 之間的合作凸顯了將記憶體技術與現代 CPU 和 GPU 需求相匹配的重要性,以支援日益龐大的 AI 模型。
Futurum Research 分析師 Brendan Burke 指出,CPU 附接低功耗 DRAM 正成為推論工作負載的關鍵記憶體層級,這些工作負載可能產生需求和功耗的突然激增。透過將記憶體置於靠近 CPU 的位置,SOCAMM2 有助於降低延遲和功耗,同時處理 AI 模型所需的海量資料集。
SOCAMM2 代表小外形壓縮附接記憶體模組,採用通常用於智慧型手機的 LPDDR5X DRAM。這種設計不僅降低了功耗,還減少了伺服器記憶體的實體佔用空間,僅佔用可比 RDIMMs 三分之一的空間。
Micron 使用 Llama 3 70B 大型語言模型進行的內部測試顯示,「首個標記時間」提升了超過 2.3 倍,這是 AI 推論效能的關鍵指標。
這款 256GB 模組的單片式 32 gigabit LPDDR5X 佈局允許每個八通道伺服器 CPU 支援高達 2TB 的低功耗記憶體。這種擴展相較於先前的 192GB 版本提供了顯著的 33% 容量增加,對於尋求 AI 資料中心密度和能源效率的營運商而言極具吸引力。
雖然 Micron 與 Samsung 和 SK hynix 在 SOCAMM2 和高頻寬記憶體開發方面處於領先地位,但廣泛採用將取決於客戶認證、系統改造以及 JEDEC 標準化的步調等因素。分析師警告,供應限制可能持續到 2027 年,可能限制對 Micron 營收的立即影響。
該公司預計於 3 月 18 日公布的第二財季財報將為投資者提供新資料中心產品定價趨勢和出貨量的訊號。與此同時,Micron 持續與 Nvidia 合作並參與標準組織,為 SOCAMM2 未來可能擴展至利基高效能 AI 應用之外做好定位。
目前,Micron 的股價基本保持穩定,反映出次世代記憶體技術前景與其商業推出不確定性之間的平衡。
本文 Micron (MU) Stock; Slight Decline Despite 2TB CPU-Attached Memory Innovatio 首次發表於 CoinCentral。


