从算力基建到存储革命:一位从业者亲历的AI产业链变局
2019年,我第一次在数据中心里看到英伟达的A100芯片。那时候,AI算力还是一个相对小众的领域,GPU主要服务于图像渲染和高性能计算。短短六年后,同样的芯片成了全球最抢手的战略资源,价格被炒到原价的数倍却依然一芯难求。这不是偶然,而是生成式AI技术范式转变带来的必然结果。
算力需求转向:从训练到推理的范式迁移
2025年全球半导体销售额预计达到7720亿美元,同比增长22.5%,并有望在2026年接近1万亿美元大关。这个数字背后,是AI应用及数据中心基础设施的强劲需求在驱动。更关键的是,需求的增长已从早期的模型训练,全面转向以推理为核心的算力基础设施建设。当前AI算力产业正处于超级增长周期,需求爆发、价格传导与资本加码相互强化,景气度保持强劲态势。
存储角色重塑:从数据仓库到算力加速器
2025年全球存储市场规模达到2354亿美元,预计2025年至2027年的年化增速高达89.2%。HBM内存市场规模已达307.5亿美元,保持超过80%的年化增速。这一增长的核心驱动力在于存储角色已从传统的「数据仓库」升级为决定算力效率的「加速器」。高带宽内存(HBM)与AI服务器算力密度提升的需求紧密绑定,技术壁垒极高。传统存储市场也因AI需求重焕活力,NANDFlash和DRAM内存的增速将分别达到112%和144%。
竞争格局固化:寡头垄断下的平台化竞争
全球AI算力与存储产业已形成「芯片-系统-基础设施」一体化的平台化竞争格局。英伟达凭借CUDA软件生态占据全球数据中心AI芯片市场88.3%的份额,构建了近乎垄断的地位。ASIC芯片领域,谷歌TPU开始获得巨量外部订单,为算力芯片提供多元化选择。存储领域,韩国头部企业2025年第三季度占据全球59%的HBM市场份额,三大头部公司合计占据DRAM市场91.5%的份额,形成稳固的「三巨头」格局。
光通信升级:算力网络的血管与神经
OFC2026大会明确光通信已从AI的「附属品」升级为算力网络的「血管与神经」。光模块呈现「800G鼎盛、1.6T爆发、3.2T储备」的三代同堂格局,CPO/NPO逐步落地、全光交换商用化等突破,解决了高速光互联的低时延、低功耗需求。硅光产业链景气度向上下游持续扩散,与PCB、覆铜板等环节形成协同升级态势。中国在AI算力的「链接」环节上具备显著竞争优势,光通信领域仍是很多类型资金的共同配置方向。
投资逻辑提炼:业绩与技术的双轮驱动
板块行情将沿「业绩稳增+技术迭代」双逻辑演绎。短期催化因素包括存储价格持续上涨、国内IDC算力招标放量、一季报业绩高增;中长期逻辑在于AI推理需求爆发、国产芯片产能释放、存储大厂扩产。光通信领域有CPO、OCS等新技术持续演进,产业公司业绩持续兑现,核心公司估值仍具备吸引力。投资者需持续跟踪产业动态,不断发掘结构性机会。技术创新的速度和幅度,是引领本轮AI浪潮更重要的前瞻指标。

