0
“韩国终于赶上好时候了
最近几年全球AI竞赛的常规叙事,总离不开两个主角:一边是美国,牢牢掌握着GPU设计与基础模型创新的制高点,从NVIDIA每一代芯片架构的发布,到OpenAI、Anthropic等头部模型厂商的持续迭代,几乎每一次技术突破,都会牵动整个行业的神经;另一边则是中国,在应用落地与工程化能力上持续追赶,大模型密集升级,国产AI芯片也在高压限制下不断寻找突围路径。
在这个双雄格局中,韩国似乎只是一个“普通国家”,既没有能够定义下一代GPU架构的设计能力,也尚未诞生足以与GPT或DeepSeek比肩的通用基础模型;然而,近一年以来,一个正在重塑全球AI产业权力版图的事实开始浮出水面:韩国正凭借一项看似“非主流”的技术——HBM(High Bandwidth Memory,高带宽内存),悄然卡住了全球AI算力供应链的脖子。
SK海力士与三星电子的业绩接连炸裂,股价创下历史新高,截至2026年5月7日,两家公司合计市值在KOSPI(韩国综合股价指数)的占比超过45%;而今年初,英伟达将下一代HBM4的采购配额主要分配给了SK海力士,同时也向三星释放关键订单,这已不再是普通的供应商选择,而是一个无法绕开的现实:在2026年上半年的节点上,最先进AI芯片所需的HBM,已高度集中在韩国厂商手中。
当韩国几乎锁定了AI时代最关键的上游卡位,一个更值得追问的话题也随之浮现:HBM带给韩国的,是周期性繁荣?还是说,这场由存储技术驱动的产业跃迁,能为韩国打开一条从“关键零部件供应者”迈向全球AI底层规则塑造者的新路径?
理解韩国今天的HBM霸权,必须回到其长期奉行的“逆周期扩张”战略。存储芯片向来是强周期行业,繁荣与低谷交替更迭。上世纪80年代以前,全球DRAM市场长期由美日企业主导;1984年行业下行时,内存价格从每片4美元暴跌至30美分,美日大批厂商被迫收缩。就在这一轮震荡中,以三星为代表的韩国企业却选择逆势扩产、持续加码:别人减产,它们扩产;别人收缩,它们投资。几轮周期洗牌后,美日欧竞争者相继退场,韩国最终确立了在DRAM领域的绝对主导地位。
但真正奠定韩国今日地位的,是一次关键的战略转向:当全球半导体巨头持续押注5nm、3nm逻辑制程微缩时,SK海力士和三星却选择了另一条路径,将重心转向HBM与先进封装。这并非一时押注,而是基于清醒判断:逻辑制程是典型的赢家通吃,后来者突围成本极高;而HBM则打开了与逻辑制程并行的新赛道,竞争焦点转向堆叠层数、封装能力与带宽密度,谁能率先实现更高层3D垂直堆叠的规模化量产,谁就能在新时代占据主动。
真正的转折点发生在2022年。ChatGPT引爆大模型浪潮后,AI训练对算力与内存带宽的需求骤然激增,HBM被历史推上前台。这个原本服务于高性能计算、主要应用于高端显卡的“小众技术”,突然成为AI芯片的核心刚需,而SK海力士早在多年前便布局TSV与先进封装,三星随后全力跟进,两家公司的先发优势在AI浪潮中集中兑现。
其背后,它们直指AI算力体系长期存在的“内存墙”难题:GPU计算能力持续跃升,但数据从DRAM传输至计算单元的速度却难以同步提升,大量算力因此被迫“空等”。
HBM给出的解决方案是近乎革命性的,通过TSV技术,它将原本平铺在PCB板上的DRAM裸片像盖楼一样垂直堆叠,再通过先进封装与GPU紧密耦合,从而实现超高带宽、低功耗的数据传输。如今,无论是英伟达B200还是Rubin架构的GPU,均需搭载8颗甚至更多的HBM。
这也使HBM成为AI硬件体系中最具议价权的环节之一。其单价远高于传统DRAM,在高端AI芯片的物料成本中,HBM所占份额甚至超过GPU核心逻辑部分。某种意义上,HBM已经成为嵌入全球AI算力体系的一道高占比、高刚性的“基础税”,而这道门槛,目前主要由韩国厂商把持。
来源:EE Times、英伟达、SK海力士
综合来看,韩国能够率先卡住HBM这一战略高地,并不全是因为赶上了AI风口,而是三重长期积累共同塑造的结果。
第一,精准锁定技术拐点的战略定力。在行业低谷期,当多数竞争者选择收缩防守时,韩国企业却持续加码那些需要长期积累、但一旦突破便足以构筑高壁垒的技术路线,提前锁定下一代算力基础设施。
第二,主动嵌入全球AI算力的核心协同链路。以SK海力士为例,它并未追求“大而全”,而是选择与英伟达、台积电深度绑定。在H100研发阶段,双方工程师只需转下椅子,技术难题便能当面沟通,将合作效率推向极致。
第三,政府从“补贴者”向“产业合伙人”跨越。从龙仁集群规划,到税收抵免、人才培养,再到能源等基础设施配套,韩国政府提供的不是单点扶持,而是一整套系统性政策底座,让百亿美元级的长期投入拥有了足够确定性。
正是这种贯通企业、产业链与国家层面的协同能力,使得HBM释放出的价值早已超越单一芯片技术本身。沿着HBM这条主线延展,我们继续观察韩国如何将这一先进的存储技术,逐步扩展为涵盖封装霸权、定制化服务、计算革命、算力出口和全民应用的完整生态。
封装即战略:先进封装成为权力中心,本土设备材料群崛起
过去,封装只是半导体制造链条中的“末端工序”,到了HBM时代,它却跃升为决定竞争格局的核心环节。HBM的价值已不只在DRAM裸片本身,而在于多层堆叠与GPU之间的高度耦合,SK海力士的MR-MUF与三星电子的I-Cube/TC-NCF,本质上都是围绕NVIDIAAI架构展开的封装竞赛:谁能在良率、散热与堆叠层数上领先,谁就能掌握主动权。
这场竞争也带动了韩国本土设备材料产业的快速崛起。从键合、刻蚀到检测、分选,一批本土供应商迅速补位,围绕HBM构建起完整的配套链条。比如,韩美半导体已成为全球TC Bonder设备的重要供应商,客户覆盖SK海力士与美光;VM在TSV刻蚀设备领域实现突破,并拿下SK海力士大额订单;Justem则牵头推进政府支持的混合键合设备研发;与此同时,以Nextin为代表的检测厂商,以及分选、后处理领域的本土企业,也在持续补齐韩国HBM产业链的关键拼图。
从“通用商品”到“定制服务”:存储厂商转型为AI算力代工厂
过去存储是标准件,但进入HBM4时代,随着存储层与逻辑基底分离,逻辑部分可采用先进的代工工艺,HBM开始走向按客户需求深度定制。大客户如微软、亚马逊、博通,可绕过英伟达直接找三星或SK海力士定制内存接口,如微软Maia 200的HBM3E将由SK海力士独家供应,亦证明AI算力底层不再由英伟达一家定义。
目前,三星依托IDM模式,提供从设计到制造的全栈定制;SK海力士则联手台积电,构建“存储+代工”的协同模式。这意味着,韩国卡住的,已不仅是HBM供应本身,也将影响下一代AI计算架构演进的话语权。
存算一体(PIM)的野心:存储芯片“长脑子”
如果说HBM是让数据搬得更快,那么PIM(存内计算)就是让数据“不用搬”。PIM在HBM颗粒中嵌入AI处理单元,让部分运算直接在存储层完成,从而减少数据在DRAM与GPU之间的来回传输,大幅降低功耗与延迟。
据了解,SK海力士的GDDR6-AiM已公开样品,三星也在推进LPDDR5X-PIM等多条产品线。虽然目前PIM仍处于商业化落地的关键阶段,但一旦成熟,将显著降低AI推理成本,直击“算力昂贵”的痛点。
更值得关注的是,韩国本土NPU企业如Rebellions和FuriosaAI正与PIM形成协同,通过先进封装推动近存计算落地,这种协同高度依赖存储、封装与芯片设计团队的紧密配合,是单一芯片设计公司难以跨洋协调的,而这,正是龙仁集群着力打造的事情。
算力闭环:从“HBM工厂”到“算力母舰”
龙仁半导体集群不仅是全球最大的HBM生产基地之一,更是韩国算力输出的制造底座,其周边聚集着数百家供应链企业。如此规模的产业集群和数据中心堪称“吞电巨兽”,韩国正通过核电扩容和超高压电网建设支撑其算力野心,“算力+能源”的双重基建能力,构成了韩国作为算力出口国的重要成本优势。
与此同时,韩国国家AI计算中心由三星SDS领衔,联合Naver Cloud、Kakao、KT等大厂共同建设,面向中小企业、初创公司和学术界开放算力资源。这实质上是一种“主权云”模式:即由芯片企业提供硬件,互联网巨头提供平台,政府提供能源与政策支持,试图从芯片到模型构建完整的自主算力链条。
正在建设中的龙仁半导体集群 来源:Maeil Business
韩国AI应用层将获益于数字基础设施建设
韩国不只是卖芯片和建算力,更在将算力转化为全民参与的AI应用生态。微软《全球AI扩散报告》显示,韩国劳动人口中生成式AI使用率达37.1%,增速位居全球第一,B端企业也正加速将AI嵌入业务流程。
来源:微软《全球AI扩散报告》
韩国的大模型迭代与AI半导体研发正在形成正向循环。今年3月,Naver确认采购三星7.52亿美元Mach-1 AI芯片;5月,韩国国家AI计算中心与NHN Cloud AI数据中心相继落地,上游芯片优势正加速转化为下游AI应用生态的核心能力。而这一基础设施能力的外溢,也正在带动韩国AI创业生态快速升温。
在今年初举办的CES 2026上,韩国参展企业超过850至1000家,是仅次于美国的第二大参展国,除巨头以外,还包括CitiFive、DeepFusion AI、Doosan Robotics等后起之秀,这三家韩企成功包揽了AI类别的三大创新奖项。
在展示韩国HBM生态亮眼成绩单之后,也有必要回归冷静。当前韩国AI产业远非完美,甚至可以说仍处于“单腿跳”阶段。以2026年第一季度半导体出口数据为例,DRAM出口额达357.9亿美元,同比飙升249.1%;NAND达53.9亿美元,增长377.5%;而系统半导体仅增长13.5%,结构性失衡清晰可见。
相比中美在AI全产业链上的布局,韩国短板仍然突出。美国拥有英伟达、AMD、谷歌、OpenAI等完整阵营;中国则有华为、寒武纪、百度、阿里、深度求索等公司覆盖全链路。尽管韩国在推理芯片、存算一体等细分赛道上正快速形成差异化优势,但在通用AI芯片设计、基础模型、AI应用生态等领域,仍与中美存在明显代差。
当前韩国尚不具备可与英伟达、AMD匹敌的GPU设计能力,AI训练芯片高度依赖外购:Naver仍在大量采购NVIDIA B200 GPU构建AI集群,Upstage等AI初创公司高管也公开承认,“韩国AI产业高度依赖英伟达”。韩国自研NPU正试图在全球AI芯片格局中寻找差异化突破口,但短期内仍难撼动英伟达在训练市场的统治地位。
在先进制程的高精度刻蚀、沉积、检测等关键环节,核心技术依然掌握在东京电子(TEL)、泛林(Lam Research)等美日企业手中。与此同时,韩国与中国台湾地区产业链之间也存在微妙的竞合关系:SK海力士为HBM4与台积电合作代工逻辑层,客观上进一步强化了台积电的话语权。
此外,股市情绪也值得警惕。前面提到,KOSPI指数中三星电子和SK海力士两家公司市值合计占比已从一年前的约24%飙升至2026年5月的45%。市场情绪接近沸点,5月11日,KOSPI因期货大涨触发熔断机制;5月8日已出现大幅外资抛售。一旦HBM需求预期出现波动,回调幅度可能同样惊人。
总体而言,韩国AI产业当前更像是“单点突破+局部优化+主权AI”的战略尝试,尚未具备与中美在通用AI体系上全面竞争的能力。但其在推理芯片、存算一体等方向上的差异化布局,以及国家层面的持续投入,仍在为未来追赶积蓄势能。
面向未来,可以先从韩国两大巨头的战略分化看起。三星与SK海力士正在走向两条不同发展路径,但目标高度一致:不只做传统意义上的内存供应商。
三星正将HBM、先进代工与先进封装进行高度整合,并通过子公司三星SDS参与国家AI计算中心建设,把芯片能力进一步转化为算力服务输出,形成“我生产、我建设、我使用”的垂直闭环;而SK海力士则更专注于将HBM从标准化产品升级为面向不同AI工作负载的定制化方案,并围绕英伟达GPU路线图进行精准迭代,走的是“深度嵌入客户AI工作流”的路线。
两条路径并不存在绝对优劣。三星的闭环模式有利于强化全局掌控、扩大产业规模;SK海力士的定制化路线则更有助于加深技术护城河。但它们共同指向同一个方向:从“卖内存”升级为“定义AI存储接口”。
韩国政府也并非旁观者。通过《AI数据中心产业振兴特别法》、龙仁半导体集群扶持计划,以及“K-NVIDIA”五年投资计划等政策,首尔正系统性地将半导体优势转化为国家级算力基础设施。其核心目标,是以“主权AI”保障数据主权与模型自主,再通过低成本算力开放,反哺本土中小企业与学术界。
如今,韩国正试图摆脱“英伟达附件”的角色,成为独立能够影响全球AI计算成本、供应节奏乃至技术路线选择的重要力量。而HBM定价、先进封装接口标准、定制化内存协议等过去主要由GPU厂商主导的领域,现在韩国已经获得更多的话语权。
回到开篇的问题:韩国凭HBM卡了全世界算力供应链的脖子,它会继续重构全球AI底层规则吗?我们认为,它未必在正面战场上打败英伟达,而是让整个算力基础设施的权力重心发生位移,即从“计算”向“存储与封装”滑动;重构规则不需要打败所有人,只需要让游戏的“地基”发生变化,而“地基”,正在首尔以南的龙仁集群里,一层一层地堆叠起来。