新一代HBM3e 激勵HBM營收年增172%
圖/美聯社、本報資料照片
AI伺服器建置加速晶片需求,其中高頻寬記憶體(HBM)爲加速晶片上的關鍵性DRAM產品。2023年HBM3需求比重已隨NVIDIA H100/H800及AMD MI300系列量產而提升。展望2024年,三大記憶體廠商將進一步推出新一代高頻寬記憶體HBM3e,一舉將速度提升至8Gbps,提供2024~2025年新款AI加速晶片更高能效。AI加速晶片市場除了Server GPU龍頭廠商NVIDIA、AMD外,CSP業者也加速開發自研AI晶片的腳步,產品共通點爲皆搭載HBM,預期帶動HBM需求大幅成長。HBM相較DRAM ASP高出數倍,預期2024年將對記憶體原廠營收顯著貢獻,預估2024年HBM營收年增率將達172%。