登录
注册
2026 年 5 月 13 日,专注于晶圆级 AI 芯片的独角兽 Cerebras Systems(纳斯达克:CBRS)正式以每股 185 美元的价格完成首次公开募股(IPO),并于次日在纳斯达克挂牌交易。上市首日股价大幅飙升超过 60%,使其迅速成为 2026 年最受瞩目的 AI 硬件 IPO 事件。这一市场狂热不仅体现在传统资本市场,加密行业也提前介入:基于 Hyperliquid 的 Trade.xyz 等平台早在 5 月初便上线了 CBRS Pre-IPO 永续合约(IPOP),允许散户在链上提前交易其股价预期。午方 AI 梳理发现,该合成产品的交易价格在 IPO 前一度显著高于最终定价,直观反映了市场对 AI 硬件股的极度追捧,目前此类产品主要提供合成敞口而非真实股份交易。
Cerebras Systems 将自己定位为差异化的纯 AI 基础设施提供商,其核心护城河在于单片晶圆级引擎(WSE-3)架构。公司预计此次 IPO 将成为 2026 年美国规模最大、超额认购最严重的科技 IPO 之一。数据显示,其超额认购倍数超过 20 倍,预营销阶段的认购兴趣总额超过 100 亿美元。
此外,公司与 OpenAI 签署的标志性多年协议,包含高达 246 亿美元的里程碑承诺,为其提供了强劲的基本面支撑。核心投资逻辑在于,Cerebras 通过消除芯片间通信瓶颈,为大规模 AI 工作负载(尤其是推理任务)带来了显著的成本节约和能效提升,尽管其在仍由 NVIDIA 主导的市场中面临执行风险和客户集中度挑战。
技术层面,Cerebras 设计并制造了全球最大的 AI 芯片和系统。其旗舰产品 WSE-3 将整个 300 毫米硅晶圆视为单一计算单元,集成了 4 万亿晶体管、44 GB 片上 SRAM 以及 21 PB/s 的内存带宽。这种架构从根本上重构了计算与内存的关系:数据移动被限制在芯片内部,从而大幅降低了延迟、功耗和系统复杂度。午方 AI 注意到,与 NVIDIA 的 B200 或 H100 集群相比,Cerebras 在预训练和强化学习(RL/RLHF)场景中展现出独特优势,特别是在内存受限的工作负载中,其同步训练大规模模型的速度最快可提升 10 倍,且 RL rollout 因更高的推理吞吐量而显著加快迭代速度。
制造方面,SRAM 并非作为独立模块采购,而是作为 Cerebras 全芯片设计的一部分,在 TSMC 5nm 工艺中直接嵌入并制造在晶圆上。公司自身不拥有晶圆厂,制造环节完全外包给 TSMC。此次 IPO 计划发行 2800 万股 A 类股,承销商拥有额外 420 万股的超额配售权,初始价格区间设定为 115 至 125 美元。
然而,强劲的市场需求促使预期价格区间上调至 125 至 135 美元,甚至可能达到 150 至 160 美元,发行规模也可能增加至约 3000 万股,预计募集资金在 40 亿至 48 亿美元之间,完全稀释后的估值可能超过 340 亿美元。
财务与所有权结构显示,2025 年 Cerebras 收入约为 5.1 亿美元,同比增长 76%,毛利率约为 39%(硬件部分约 43%,服务/云部分较低)。尽管非 GAAP 经营亏损持续存在,但积压订单的转化和基础设施建设将推动短期现金消耗。在股权结构上,OpenAI 持有 3340 万至 3350 万股 N 类非投票股认股权证,行权价极低,归属条件与计算采购里程碑挂钩,完全归属需满足至 2030 年的多吉瓦承诺。标准 180 天锁定期适用于 IPO 前股份和内部人士,但 OpenAI 的认股权证为里程碑驱动,行使后不立即锁定。午方 AI 分析认为,这种独特的股权释放机制将在后期引入一定的市场波动风险。
从行业影响来看,晶圆级设计大幅减少了对高速互连、电缆、交换机和复杂机架结构的依赖,大部分通信发生在芯片上而非跨数千个独立 GPU。对于超大规模云运营商而言,更低的功耗包络意味着电力和冷却运维支出的降低,可将等效推理工作负载的毛利或经营利润率提升约 10% 至 20% 以上。在电网受限和能源成本飙升的背景下,这改变了新数据中心建设的计算逻辑:每可用 MW 提供更多算力、部署更快且总拥有成本(TCO)显著更低。IPO 前隐含市值在 260 亿至 420 亿美元区间,分析师预测其 2026 年收入约 11 亿美元,2027 年约 23 亿美元,复合年增长率超过 100%。
AI 基础设施建设正进入新阶段,超大规模云和企业不仅面临资本支出压力,更受制于电力可用性、冷却限制和总拥有成本。Cerebras、Groq 等采用“重新思考芯片”方法的公司,代表了对特定高价值工作负载(尤其是内存受限推理和大规模训练/RL)中 GPU 中心化模型的可信挑战。虽然 NVIDIA 预计在可预见的未来仍将占据最大市场份额,但逐步多元化到替代架构对寻求成本、电力和性能优势的云提供商具有战略重要性。能源约束日益成为 AI 扩张的绑定变量,拥有廉价或丰富电力的地区将具备结构性优势,而能在每瓦特及每美元资本支出下提供更多 token 或 FLOPs 的技术将获得定价权和更快的采用率。
从长期视角审视,晶圆级论点正在检验行业是否会转向更少、更大的芯片,而非数千个较小的互连 GPU。如果成功,Cerebras 可能开辟一个持久的利基市场;如果失败,它可能在 GPU 主导的世界中成为高成本的专业玩家。更广泛的 AI 市场情绪、利率轨迹以及任何资本支出放缓的宏观因素,仍是决定其最终成败的关键外生变量。