卡住AI脖子 HBM成韩国出口王牌:芯片三巨头都得用 市场优势显著
卡住AI脖子 HBM成韩国出口王牌:芯片三巨头都得用 市场优势显著。近年来,AI成为市场热点和大国竞争的关键技术之一。尽管NVIDIA的GPU在计算能力上表现出色,但在存储芯片方面仍需依赖韩国厂商,尤其是HBM(高带宽内存)逐渐成为瓶颈。
HBM是一种高带宽内存标准,旨在满足日益增长的计算需求。与传统内存相比,HBM提供更高的数据传输速率和更低的延迟。目前,SK海力士率先量产HBM,美光公司也已开始量产,而三星则进展较慢。
HBM最新标准已发展到HBM4,但市场上主流产品仍是HBM3E。堆栈层数从8层提升到12层,单颗容量可达36GB。SK海力士凭借技术优势可实现16层堆栈,容量达到48GB,并计划在今年供货。
SK海力士HBM事业部高管崔俊龙表示,终端用户对AI的需求非常庞大且稳固。该公司预测,到2030年之前,HBM市场将以每年30%的增长率发展,市场规模将达到数百亿美元。去年韩国对美国的芯片出口中,HBM占存储芯片的18%。
NVIDIA、AMD及Intel等主要AI芯片巨头正在进一步提升HBM显存的容量和速度。AMD明年的主力产品MI400将使用高达432GB的HBM4,带宽为19.6TB/s,比MI350系列的288GB HBM3E、8TB/s分别增加50%和145%,比竞争对手的产品高出50%。
HBM也成为国内AI芯片发展的关键限制因素之一。虽然国内有公司在自研HBM芯片,但技术水平落后SK海力士一两代,HBM3e和HBM4的量产还需几年时间。不过,华为即将在未来两天公布一项新技术,这项成果可能降低中国AI推理对HBM技术的依赖,提升国内AI大模型推理性能,完善中国AI推理生态的关键部分。卡住AI脖子 HBM成韩国出口王牌:芯片三巨头都得用 市场优势显著