▍基于典型SuperPOD的高速光模块用量测算。
SuperPOD是英伟达推出的业内AI的基础架构解决方案,其网络架构具有较好参考价值。我们测算在此架构下,一个SuperPOD架构需要140台AI服务器;1120张A100GPU;186台交换机与5760~8000个光模块。其中交换机:服务器的数量比为1.3;交换机:服务器的价值量比为8%;光模块:GPU的数量比为5~7;光模块:服务器的价值量比为4%~7%。
▍基于20个大模型训练和应用的光模块市场需求测算。
模型预训练阶段,在1750亿参数、训练词数3000亿token的情况下,将类GPT模型每个月训练1次对应的英伟达A100算力需求增量为6218片,对应8路服务器需求为777台。在日常交互(即推理)的AI带来的阶段,我们预计在单个GPT模型每日访问2亿用户、每用户1500词的情况下,支撑日常交互所需要的算力基础设施为28.5万片A100,对应服务器3.6万台。根据我们统计,目前有21家初创企业和11家大型企业(合计32家公司)正在训练达到或者超过GPT-3质量的大模型,均有潜力可以形成类似ChatGPT的应用规模。
中性假设20个类GPT模型下,我们预计训练+推理所对应的AI带来的服务器市场增量为1456亿美元,较现有服务器市场增幅高达147%。我们预计训练+推理所对应数通光模块市场增量为58亿美元,较现有光模块市场增幅高达116%。目前光模块的弹性,是基于A100服务器对应的200G光模块计算的结果,我们认为随着GPU往H100甚至更高升级,800G光模块将成为主流,光模块将有更大的弹性。
▍技术与CAPEX周期驱动下,估值有望先于盈利兑现。
技术升级周期加速+资本开支周期触底+全球竞争优势三重红利下,预计光模块龙头将有较大的估值弹性。从光模块产业的发展来看,技术迭代和资本开支的周期性波动,对其盈利影响最为突出,而估值则会提前体现。