近期,DeepSeek凭借极低的训练成本实现全球顶尖模型性能,引发市场对AI算力需求的重新评估。兴业证券指出,这一技术突破将加速应用端侧爆发,推动推理需求成为算力增长的核心引擎,并带动ASIC芯片、AI服务器及PCB产业链的全面升级。
图片来源:DeepSeek
推理算力
万亿级的主战场崛起
兴业证券的最新研报为我们揭开了AI行业的深层真相。曾几何时,预训练成本一直是大模型发展的一大阻碍,不过DeepSeek的开源带来了转机,成功将大模型预训练成本压缩至总成本的10%以下,看似预训练降本成为了行业焦点,可实际上这仅仅是“开胃菜”。真正的“吞金兽”藏在应用落地之后,那就是推理算力。
数据最有说服力,以GPT-4为例,单次预训练成本约6300万美元,已然是一个天文数字。但上线后每日推理成本更是高达70万美元,用户每提问50次,就烧掉1美元。这清晰地表明,随着用户规模爆发式增长,推理算力需求将急剧攀升,成为万亿级的主战场。
从巨头动向也能看出端倪,Meta最新开源模型Llama 3推理算力需求同比激增3倍;谷歌则被曝正秘密研发“千卡级”推理专用服务器集群。
行业逻辑链也因此颠覆了我们的认知:开源降低预训练门槛,使得更多企业得以入局AI应用开发,进而推动用户规模指数级扩张。由于推理算力成本与用户量线性绑定,算力基建自然而然成为了必争之地。
定制化ASIC芯片
AI算力的“黄金赛道”
英伟达GPU价格飙涨背景下,定制化ASIC芯片成破局关键:
1、需求激增:博通预测2027年仅3家客户(谷歌/微软/Meta)的ASIC+网络需求将达600-900亿美元,Marvell预计2023-2028年AI推理芯片市场CAGR达45%。
2、国产替代:华为昇腾910B性能追平国际高端GPU,全面适配DeepSeek V3/R1模型。
3、技术突破:谷歌TPU v5推理性能较GPU提升4倍,亚马逊Trainium芯片推理延迟压至毫秒级。
行业暗战逻辑清晰:GPU通用性强但成本高,ASIC芯片通过专用化实现降本增效,云厂商自研芯片正重塑全球半导体格局。
服务器“内卷”升级
PCB厂商的意外之喜
英伟达GB200系列因功率过高导致机架过热,下一代Rubin架构或采用正交设计+PTFE材料PCB背板,单服务器PCB价值量或增长30%。
从技术升级路径来看:
首先是层数跃迁:AI服务器主板从12层向20层+迈进,目的是为了支撑CPU/GPU异构架构,满足日益增长的运算需求;
其次是材料革命:Low Loss高频基材渗透率超70%,虽然提升了性能,但也使得单板成本提升30%;
再者是散热升级:3D真空腔均热板的导入,推动PCB散热模块价格翻倍。
市场测算也十分可观。据Prismark数据,2025年全球AI服务器PCB市场规模将突破82亿美元,复合增速达28%,远远超过传统服务器市场。
在产业链动态方面,深南电路、沪电股份、广合科技等厂商产能全线告急,部分高端PCB交期拉长至12周以上。这一系列情况都表明,在AI服务器升级的浪潮中,PCB厂商迎来了难得的发展机遇。
投资逻辑重塑
从“拼卡量”到“拼能效”
当推理算力成本成为AI商业化的生死线时,基础设施“单位算力性价比”成为了核心竞争力。
先看巨头布局样本,微软Azure部署液体冷却服务器,成功使推理能耗下降40%;华为推出“AI算力网络”解决方案,通过存算一体技术降低延迟。这些举措都在表明,提升能效成为了关键。
除了巨头的动作,长尾机会也不容小觑。边缘推理设备,如智能汽车、IoT终端等,催生了ASIC+PCB微型化需求,2024年市场规模或突破120亿美元。这为行业带来了新的投资方向,不再仅仅局限于“拼卡量”,而是转向“拼能效”,探索更具性价比的解决方案。
结语 :DeepSeek的突破不仅是一场技术进化,更开启了AI算力从“训练竞赛”向“推理落地”的范式转移。随着资本开支向推理侧倾斜,定制化芯片与高密度服务器将成为新一轮科技红利的核心载体。兴业证券提示,未来3-5年,率先卡位应用场景与硬科技协同的企业,有望在AI浪潮中占据战略高地。