Research谨慎CAUTIOUS

Equity Research · 2026-05-15

Cerebras Systems 深度研究报告

Investment View · 2026-05-15

谨慎· CAUTIOUS

看多技术,不追逐当前估值

$66.95B
首日收盘市值
131.3x
2025 P/S 倍数
86%
Top-2 客户 / 2025 收入
$24.6B
RPO / 截至 2025 年底

投资摘要

**一句话定义:**Cerebras 不是单纯的“AI 芯片公司”,也还不是成熟意义上的“AI 云公司”;更准确的定义是:以 wafer-scale 芯片为核心、向上延伸系统与云交付的垂直整合 AI 基础设施公司。这一定位决定了它不能简单套用 Nvidia 式高毛利芯片估值,也不能在云业务尚未成熟前直接享受高质量经常性软件/云平台估值。

我的核心结论是:**技术真实、产品有差异、客户背书强,但当前股价已经把大量“OpenAI/AWS 顺利放量 + 云收入高毛利化 + 客户集中度快速下降 + 成为非 GPU 推理标准之一”的乐观预期提前计入。**在 2026 年 5 月 14 日上市首日,Cerebras IPO 定价为每股 185 美元,完全摊薄估值约 564 亿美元;首日开盘一度对应约 1,067 亿美元完全摊薄估值,收盘市值约 669.5 亿美元。相对于 2025 年 5.10 亿美元收入,这意味着市场在 IPO 价上已经给予约 111 倍市销率,在首日收盘价上约 131 倍市销率;若以 2025 年 39% 毛利率估算,市场给予的 EV/毛利倍数更处于极端区间。

从投资框架看,Cerebras 的多头逻辑很清楚:第一,WSE-3/CS-3 确实在超低时延、高 token throughput、减少跨芯片通信复杂度方面形成了区别于 GPU 的架构路径;第二,OpenAI、AWS、G42/MBZUAI 等关系把公司从“技术样机”推进到了“真实大客户容量采购”的阶段;第三,行业需求正在从训练主导转向推理主导,而推理对时延、功耗、单位 token 成本和部署复杂度更敏感,这正是 Cerebras 的强项。官方资料显示,WSE-3 采用 5nm 制程,拥有 4 万亿晶体管、90 万个 AI optimized cores、44GB 片上 SRAM 与 21PB/s 内存带宽;CS-3 可扩展至 24 万亿参数单逻辑设备训练,Cerebras 在公开材料中还宣称其推理速度可达到行业领先水平。AWS 也已宣布将在其数据中心部署 Cerebras,并通过 Amazon Bedrock 提供相关能力;OpenAI 则宣布将把 750MW 的低时延 AI 算力接入其平台。

空头逻辑同样强:第一,历史收入质量并不高,2023 年 G42 占收入 83%,2024 年上半年 G42 占收入 87%;到 2025 年,G42 与 MBZUAI 两家客户合计仍占收入 86%,而截至 2025 年末,MBZUAI 占应收账款 77.9%,2024 年末 G42 占应收账款 91.0%。这说明公司过去的增长高度依赖少数战略客户,而非广泛、重复验证后的横向市场渗透。第二,OpenAI 合同虽然显著提高了收入可见性,但 SEC 披露也显示该合作伴随锁箱账户、营运资金贷款、交付进度约束、终止与延迟条款,这意味着它不是“轻资产软件订单”,而是带有强执行与资金约束的基础设施承诺。第三,软件生态仍远弱于 CUDA;Cerebras 的平台更像在特定工作负载上“绕开 GPU 分布式复杂性”的专用加速路线,而不是对通用 GPU 生态的全面替代。第四,若公司为了兑现 OpenAI/AWS 等合同不得不自建更多云容量,其商业模式会从“卖系统”进一步偏向“重资本数据中心运营”,这会压低可比估值中枢。

基于以上,我的初步评级倾向是:谨慎。这不是因为公司没有技术,而是因为当前估值隐含的基本面兑现门槛已经很高。若把 Cerebras 当作早期硬件/系统公司看,它明显过贵;若把它当作未来高增长 AI infrastructure platform 看,市场则要求其在未来三到五年把 OpenAI/AWS/G42 订单顺利转化为数十亿美元收入、把云/服务收入占比提升到 50% 左右、把客户集中度显著降到 40% 以下,同时把毛利率逐步抬升到 50% 以上。这不是不可能,但它要求执行、融资、供应链和产品路线几乎同时成功。

一页核心观点

项目结论证据等级
公司定义垂直整合 AI 基础设施公司;收入历史更接近硬件/系统公司,战略叙事正在向云/容量服务迁移A
核心多头逻辑WSE-3 架构真实差异化;OpenAI/AWS 提升事实标准可能性;推理需求增速高于训练,匹配 Cerebras 强项A/B
核心空头逻辑历史集中度极高;云业务重资本;软件生态弱于 CUDA;当前估值已预支多年高增长A/B
最关键观察指标云/服务收入占比、RPO/积压转收入效率、前两大客户占比、毛利率路径、CapEx/FCF 纪律A/B
未来催化剂OpenAI 250MW 首批交付、AWS/Bedrock 落地、主权 AI 新订单、Cerebras Cloud 利用率提升、更多第三方 benchmarkA/B
最大风险OpenAI/AWS 合同执行不及预期、推理价格通缩、Cerebras 被限定为“高速但小众的 inference appliance”A/B
初步评级谨慎分析师判断

上表基于 Cerebras SEC/官方资料、OpenAI/AWS/G42/MBZUAI 官方公告以及 Reuters/FT/Barron’s 等报道整理。

公司与商业模式

Cerebras 由 Andrew Feldman、Gary Lauterbach 等人在 2015 年创立,核心团队来自 SeaMicro;SeaMicro 在 2012 年被 AMD 收购,这段背景为公司带来了服务器、系统设计与资本市场叙事上的初始可信度。公司 2024 年曾首次递交 IPO 文件,但随后因 G42 相关持股与国家安全审查而延后,2025 年 10 月撤回旧申请,2026 年 4 月重新公开披露,并于 2026 年 5 月完成上市。Reuters 报道指出,这一过程与 CFIUS 对阿布扎比科技集团 G42 投资的审查直接相关。

从产品矩阵看,Cerebras 的核心并不是单一芯片,而是**“芯片 + 系统 + 集群 + 云 + 软件”**。官方与招股资料显示,公司的核心硬件是 WSE-3;系统侧产品是 CS-3;集群侧可扩展为 Wafer-Scale Cluster;云侧提供 Cerebras Cloud / Cerebras Inference;软件侧则围绕 PyTorch 兼容、weight streaming、cluster execution、SDK 与 API 形成一整套开发与部署工具。公司在 SEC 文件中明确写道,客户既可以购买本地部署的 AI 超算系统,也可以通过 Cerebras Cloud 或合作伙伴云以 consumption-based 模式购买算力。

这意味着公司有四层可能的收入来源。第一层是硬件系统销售,在会计上通常按时点确认收入;第二层是云推理/训练服务,更接近容量交付或按用量收费;第三层是软件、支持、专业服务,部分按时点、部分按期间确认;第四层是战略客户长期容量合同,其实质更接近“算力可用性 + 服务履约”的混合模式。Cerebras 2024 年 S-1 披露,公司硬件收入按时点确认,而服务及其他收入既可能按时点也可能按期间确认;2024 年上半年总收入 1.364 亿美元中,硬件收入 1.043 亿美元、服务及其他收入 3,213 万美元。

商业模式演变也很关键。历史上,Cerebras 的收入主要来自系统销售,这解释了为什么 2022-2024 年收入确认更像硬件公司;但 2026 年之后,随着 OpenAI/AWS 关系推进,公司叙事明显走向“云容量 + AI 基础设施服务”。SEC 摘要与媒体都指出,公司历史收入主要来自硬件系统销售,而云业务仍处在非常早期,且需要显著的数据中心容量与资本开支。换言之,公司正在尝试从“卖设备”升级到“卖可用算力”,这是潜在估值上修的来源,也是未来资产负债表风险的来源。

产品与收入模式拆解

表中“收入确认特征”主要依据 Cerebras 2024 年 S-1 披露,“毛利率潜力/现金流特征/扩展性”为分析师判断。

我对这种模式的判断是:**Cerebras 的长期上限取决于云/容量化,而不是一次性系统销售;但它的当前财务基础仍主要来自系统与战略客户大单。**因此,估值上不能把“未来可能成为高毛利云平台”的远景,直接全部贴现到今天的营收质量上。

Figure 4 · Product Mix · Revenue Recognition

四个收入模块,确认特征与毛利率潜力截然不同

模块主要内容收入确认特征毛利率潜力现金流特征粘性 / 扩展性
WSE / CS-3 硬件WSE-3 + CS-3 系统时点为主
Cluster / Sovereign AI多节点集群、国家/研究部署交付驱动
Cerebras Cloud / Inference训练/推理容量、API、合作云期间确认/用量型
软件 / 支持 / 专业服务部署、迁移、模型适配部分 over-time
来源 · Cerebras 2024 S-1 披露 · 分析师判断

技术护城河

Cerebras 的技术护城河不是“全面优于 GPU”,而是在特定维度极端优化:把大量原本分散在多 GPU、多层交换、多级内存之间的通信与调度复杂度,前移到单 wafer 巨芯片和配套系统设计中。因此,它在“低时延、大上下文、减少分布式工程复杂度”的工作负载上可能非常强,但在“生态通用性、开发者迁移、主流训练 pipeline 兼容性”上仍弱于 Nvidia。

架构优势与边界

官方资料显示,WSE-3 是迄今规模最大的商用 AI 芯片,面积 46,225 平方毫米,拥有 4 万亿晶体管、90 万个 AI 优化核心、44GB 片上 SRAM 和 21PB/s 内存带宽;公司称其为“市场上唯一的 wafer-scale chip”。与传统 GPU 依赖多颗芯片 + HBM + NVLink/NVSwitch 的扩展路径不同,Cerebras 试图用超大单芯片降低跨芯片通信惩罚,把更多数据留在片上或以 weight streaming 方式按层加载。Hot Chips 2024 的演讲材料也强调,Cerebras 集群能够用 data parallelism only 模式扩展,避免复杂的 hybrid model parallelism。

这种架构的优势最容易体现在低延迟推理、实时 agent、语音交互、代码助手、reasoning loop 等对 time-to-first-token 与 token generation latency 尤其敏感的场景。OpenAI 官方在宣布合作时明确强调,接入 Cerebras 的目标是“让 AI 响应更快”;Cerebras 自身也把 Codex-Spark、实时 coding、voice AI、agentic workflows 作为典型场景。Cerebras 2024 年 10 月公布的推理口径中,Llama 70B 已达到 2,100 tokens/s;OpenAI 2026 年 2 月发布 Codex-Spark 时则称,在 Cerebras 优化硬件上可实现每秒超过 1,000 tokens。

但它的边界也非常清晰。第一,44GB 片上 SRAM 很大,但并不意味着“大模型权重天然全部在片上”;weight streaming 文档说明,神经网络模型可以一层一层加载,这本质上说明系统级仍需依赖外部权重流和集群级存储/互连来支撑更大模型。第二,单芯片简化了部分分布式复杂度,但对成熟 CUDA 工具链、各类 kernel 优化、广泛社区支持的替代仍不充分。第三,对于需要高度通用计算、成熟工具链、现成框架插件、跨供应商可移植性的大规模训练场景,GPU 依然是默认架构。

制造、系统与软件

Wafer-scale 架构的真正门槛不只在芯片设计,而在良率容错、封装、散热、供电、测试、系统工程。Cerebras 在 SEC 文件中反复强调,其差异化不仅来自处理器本身,还来自围绕其开发的专有供电与冷却技术。WSE-3 采用 5nm 制程;公司 2024 年 S-1 还披露,上游采购高度集中,2024 年上半年有两家供应商分别占采购额 26% 和 15%,2023 年上半年有单一供应商占采购额 47%,表明供应链弹性并不宽。

与 Nvidia GB200/GB200 NVL72 或 Rubin 路线相比,Cerebras 的优势是减少了对超复杂 scale-up NVLink 域和大规模多 GPU 通信编排的依赖;与 AMD MI350/MI400 相比,它在“单逻辑设备”的叙事上更强,但 AMD 的开放软件栈和传统 GPU 兼容路径更容易被客户接受;与 Google TPU、AWS Trainium/Inferentia 相比,Cerebras 在外部云市场仍是后入者,而后两者首先服务自有云生态,天然拥有内生需求。

在软件上,Cerebras 的长处是:相对完整地做出了 PyTorch 集成、weight streaming、cluster execution、SDK 与 API,降低了部分模型迁移门槛。它的短板是:生态的“广度、深度、默认地位”都不及 CUDA/ROCm/Neuron/TPU XLA 体系。我认为这决定了 Cerebras 更像一条“高性能专用路线”,而不是“下一代通用默认平台”。只要客户目标是某一类业务 KPI——如更低交互时延、更高单位机柜吞吐——Cerebras 就有竞争力;但一旦客户目标是“最容易招人、最多第三方工具、最少迁移风险”,CUDA 仍是压倒性默认选项。

技术护城河评分表

综合评分约 3.3/5。评分依据来自官方产品/技术资料、Hot Chips 演讲、OpenAI/AWS 合作公告与可比厂商公开路线图;分数为分析师判断。

我的结论是:**Cerebras 有“窄而深”的技术护城河,而不是“宽而全”的平台护城河。**这已经足以支撑一家具备大市值潜力的公司,但还不足以直接支持“Nvidia killer”的叙事。

Figure 5 · WSE-3 · By the Numbers

一颗 wafer-scale 芯片相当于多少块 GPU

4 T
晶体管数
900 K
AI 优化核心
44 GB
片上 SRAM
21 PB/s
内存带宽
面积46,225 mm²
制程5 nm
Llama 70B 推理2,100 tok/s
Codex-Spark>1,000 tok/s
CS-3 单设备最大24 T 参数
来源 · Cerebras 官方技术资料 · Hot Chips 2024 · OpenAI Codex-Spark 公告

Figure 6 · Moat Scorecard · 7 dimensions

窄而深,不是宽而全

技术差异化性能可验证性软件生态供应链可复制性客户锁定成本曲线路线图可持续性3.3COMPOSITE
  • 5/5技术差异化 · Wafer-scale 真实、稀缺、难复制
  • 3/5性能可验证性 · 有客户背书,仍依赖公司口径
  • 2/5软件生态 · 远未达到 CUDA 默认地位
  • 4/5供应链可复制性 · 系统工程门槛高
  • 3/5客户锁定 · 推理生产链路粘性上升
  • 3/5成本曲线 · 特定场景 TCO 优势
  • 3/5路线图可持续性 · 需持续投入
来源 · 分析师评分 · 综合 3.3 / 5
评分 1 = 弱 ↔ 5 = 强;填色面积反映多维护城河形状

行业空间与竞争格局

AI 基础设施的需求结构正在发生变化。IDC 预计,到 2029 年全球 AI Infrastructure 支出将达到 7,580 亿美元,其中加速服务器占比 94.3%;Gartner 预计 AI processing semiconductors 收入到 2029 年达到 4,385 亿美元,五年 CAGR 25.9%,并且 AI accelerators/GPU 将从 2024 年约 800 亿美元扩大到 2029 年超过 2,800 亿美元。与此同时,TrendForce 预计 AI inference servers 的占比将逐步接近 50%;McKinsey 则判断,到 2030 年,推理将在 AI 数据中心中超过训练,成为主要工作负载。

这对 Cerebras 是行业顺风。原因很简单:当行业从“少数超大训练集群”转向“海量、持续、对响应时间更敏感的推理服务”,速度优势、功耗优势、网络简化优势的边际价值会上升。Google 也在 2025 年把 Ironwood 直接定义为“the first Google TPU for the age of inference”;AWS、Meta、Microsoft 也都在 2025-2026 年加快自研推理优先芯片迭代。这说明整个行业对“推理专用优化”的重视,本身就是 Cerebras 的外部验证。

但行业大空间不等于 Cerebras 的真实可服务市场。公司自身引用 Bloomberg Intelligence 口径称,AI TAM 将从 2024 年 1,310 亿美元增长到 2027 年 4,530 亿美元;然而,把全部 AI 芯片/基础设施市场都视为 Cerebras 的 TAM 明显高估。更合理的做法,是将其 SAM 定义为:适合 wafer-scale / ultra-low-latency inference / simplified large-model training / sovereign AI deployment 的子市场。结合 IDC、Gartner、TrendForce 和 McKinsey 对 AI infra、AI accelerator、inference 占比的预测,我的中性估计是:到 2029-2030 年,Cerebras 的真实 SAM 大致在 600-900 亿美元之间,显著低于泛 AI 芯片 TAM,但仍足够大。这个假设相当于把总 AI infra/accelerator 市场中约 15%-20% 视为适配其架构的细分市场。

行业的另一面是供给约束。McKinsey 预计全球数据中心需求到 2030 年将达到 200-220GW;JLL 预计 2025-2030 年全球数据中心容量增加 97GW,AI inference 在 2027 年左右超过训练;IEA 则预计全球数据中心用电到 2030 年接近翻倍至约 945TWh,AI-focused 数据中心用电将增长三倍。Uptime Institute 的 2025 调查则指出,电力约束、冷却、供应链延迟和技术不确定性是行业共性难题。对 Cerebras 来说,这意味着其未来增长不仅取决于芯片卖得出去,还取决于电力、机房、冷却、网络与资本能否同步到位

竞争矩阵

这张表的核心答案是:**Cerebras 目前更像 Nvidia 的“补充品 + 特定推理场景替代品”,而不是广谱直接替代。**如果它成功,成功方式更可能是:在实时推理、agentic workflow、voice/coding、主权 AI 与某些大模型训练细分场景中,成为“第二条被验证的基础设施路线”;而不是在所有训练/推理场景中全面取代 CUDA GPU。

Figure 7 · Competitive Heatmap · 9 players × 4 axes

补充品与替代品的差别:生态决定一切

公司 / 路线生态性能资本独立性对 Cerebras 的含义
Nvidiadefault platform
AMDtraining rival
Google TPUinternal flywheel
AWS Trainiumpartner + rival
MS / Meta 自研hyperscaler internal
Broadcom / Marvellcustom ASIC squeeze
Groq / SambaNovadirect inference rival
Tenstorrent / Graphcorecautionary tale
Cerebrassubject
来源 · 官方资料 · roadmap · 分析师评分
评分 1 (弱) → 5 (强)。Cerebras 行加重边框;右列为其对 Cerebras 的含义

客户订单、收入质量与财务基本面

在收入质量上,Cerebras 的历史短板几乎全部集中在客户集中度。SEC 资料显示,2023 年 G42 占总收入 83%;2024 年上半年 G42 占总收入 87%,其中占硬件收入 97%、服务及其他收入 56%。2025 年,多方市场解读与媒体引述招股书称,MBZUAI 与 G42 两家 UAE 相关客户合计仍占收入 86%,其中 MBZUAI 是最大客户;截至 2025 年末,MBZUAI 占公司应收账款 77.9%,而 2024 年末 G42 占应收账款 91.0%。这组数字意味着:公司过去几年收入增长,更多反映少数战略客户的集中采购,而非多客户、多行业、多区域的自然扩散。

OpenAI 与 AWS 的进入,正在改变这个结构,但改变的方式并不简单。OpenAI 2026 年 1 月宣布与 Cerebras 合作,引入 750MW 低时延 AI 算力;Reuters 与 FT 报道称,该多年度协议价值超过 100 亿美元,相关能力将分阶段于 2028 年前上线。更重要的是,SEC 展示的 OpenAI 协议文本说明,OpenAI 对初始容量作出购买承诺,首批 250MW 需在 2026 年底前可用,且支付义务在条款约束下为 non-cancelable、fees 非 refundable;同时,协议还设置了 lockbox 账户、工作资本贷款、交付延迟惩罚与终止安排。换言之,这不是一个“松散的战略合作 PR”,而是有真实履约约束、也有真实资金与交付约束的基础设施合同

AWS 关系的意义则不同。AWS 在 2026 年 3 月宣布与 Cerebras 合作,计划在 AWS 数据中心部署 Cerebras,并通过 Amazon Bedrock 提供更高速度的推理能力。对 Cerebras 而言,这一合作的核心价值并不只在短期收入,而在于:如果 AWS 把 Cerebras 作为 Bedrock 某类低时延推理能力的交付选项,Cerebras 的产品就从“独立硬件方案”提升到了“云平台菜单中的一种标准化服务”。这一层级跃迁,对未来定价能力和估值方法影响极大。

不过,投资人不能把 backlog/RPO 当作现金等价物。多家媒体基于招股材料指出,Cerebras 截至 2025 年底拥有约 246 亿美元 remaining performance obligations/backlog,其中约 200 亿美元来自 OpenAI 协议。这里的关键不是 headline 数字,而是:这些合同的转收入节奏、可取消性、客户融资依赖、对应资本开支与毛利结构。OpenAI 协议文本显示,初始容量承诺具有刚性,但更远期的额外容量属于 option;同时交付延误会缩短服务期,严重延迟时双方还可终止未交付部分。这意味着 backlog 的“名义可见度”高于过去,但其“现金流可见度”仍要经过机房、电力、供应链、客户使用量与履约能力的二次验证。

历史财务概览

需要特别强调两点。第一,**2025 年 GAAP 转盈并不代表核心经营已经盈利。**多家市场解读和媒体根据招股材料一致指出,2025 年 2.378 亿美元净利润主要来自约 3.633 亿美元的一次性、非现金会计收益;若剔除该项影响,公司仍处经营亏损状态,GAAP operating loss 约 1.459 亿美元,非 GAAP 亏损约 7,570 万美元。第二,**2025 年毛利率从 2024 年的 42.3% 降到 39.0%,说明公司当下并未呈现“收入增长同时经营杠杆显著释放”的典型软件/平台公司特征。**这更像一家正在从系统销售迈向容量服务、同时增加云基础设施投入的混合型公司。

这也回答了一个关键问题:**Cerebras 是否存在“硬件公司收入 + 云公司估值”的错配?答案是,当前阶段大概率存在。**因为它的财务报表仍显示出硬件/系统业务的波动性、折扣、集中度和项目属性,但资本市场已经在按“潜在 AI infra platform”来定价。这样的定价并非一定错误,但它要求云/容量收入尽快提升、毛利率重新抬升、客户结构明显改善,否则估值压缩会非常剧烈。

IPO 结构与治理质量

项目判断
双重股权结构对治理折价不利,创始人与内部人控制力强
首日流通盘流通比例低,容易造成首日/首周价格失真
锁定期与潜在抛压Barron’s 报道称 Class B 不受典型 lock-up 约束,后续供给压力需警惕
估值与基本面匹配度高度前置定价,要求未来三年执行近乎无瑕疵
会计质量2025 利润受非现金一次性收益影响,需更多后续季报验证

这一治理/交易层面判断主要依据 Barron’s、MarketWatch、Reuters 对 IPO 结构和首日交易的报道,属于 B 级证据;最终仍需公司首份 10-Q/10-K 与锁定期安排正式文件进一步验证。

Figure 2 · Concentration · Revenue & AR, 2023 → 2025

收入集中度看似改善,应收账款集中度仍是极端值

0%25%50%75%100%83%2023G4287%2024 H1G42AR 91%2024 末G42 (AR)86%AR 78%2025G42 + MBZUAI战略客户收入占比战略客户占应收账款
来源 · Cerebras S-1 / 2026 F-1 · Reuters · FT
柱 = 战略客户收入占比;圆点 = 战略客户占应收账款比

Figure 3 · Financials · 2022 – 2025

收入快进,亏损未止;2025 GAAP 转盈靠一次性非现金收益

Revenue ($M)

24.6202278.7202329020245102025

GM% · OpM% (rev)

-100%-50%0%50%2022202320242025

2025 Net Income ($M)

-76+363+237.8调整后一次性GAAP
来源 · Cerebras S-1 / 2026 F-1 · 分析师整理
左:收入;中:毛利率与经营利润率;右:2025 净利润分解

Figure 8 · RPO Anatomy · $24.6B backlog · 750 MW timeline

OpenAI 占了八成 RPO;750 MW 分两阶段上线

OpenAI · $20B81% of RPOOther $4.6BTOTAL RPO $24.6B2026 ↦250 MWPhase 1 · 2026 末2028 前750 MWFull capacity含 lockbox / 营运资金贷款 / 终止 + 延迟条款
来源 · Cerebras F-1 · Reuters · FT · OpenAI 官方
柱:合同金额结构;时间轴:OpenAI 750 MW 分阶段交付

预测、单位经济与估值

单位经济模型

由于公司未公开披露 CS-3 单机 ASP、单系统 BOM、云单位 token 成本等关键指标,严格的 unit economics 只能做区间估算。外部行业媒体根据 G42 Condor Galaxy 部署曾估算 576 台 CS-3 对应约 9 亿美元,总计约 156 万美元/台;这一数据并非公司官方披露,因此只能作为 C 级参考。我据此结合公司历史毛利率与同行高端 AI 系统定价,给出如下区间:CS-3/节点 ASP 约 140 万–190 万美元;早期系统级毛利率 30%–40%,成熟后若云业务与服务占比提升,可向 45%–55% 靠拢。

更重要的是云容量模型。若把 Cerebras 的未来增长建基于 OpenAI/AWS 等容量合同,那么决定盈利的不是单机 ASP,而是利用率、每 token 售价、功耗、电价、折旧周期与机房占用效率。在缺少公司官方单价的情况下,我只给出方向性判断:若利用率低于 50%,且公司必须持续前置建设容量,云业务很容易把财务模型从“高毛利芯片叙事”拖向“重资产数据中心叙事”;若利用率稳定超过 70%,且低延迟推理可维持显著溢价,则单位经济会迅速改善。换言之,速度优势只有在商业定价和高利用率同时成立时,才会转化为利润优势。

三种情景预测

以下预测是分析师模型,基于已披露历史收入、客户结构、OpenAI/AWS 已公告合作、行业推理需求趋势以及重资本扩容特征;并非公司指引。

该表为分析师估算,关键外部假设基础为行业收入池和推理占比上行趋势。

在这三个情景里,**当前市场定价最接近 Bull 与“超 Bull”之间。**这是本报告最关键的估值判断。因为仅在 Base 情景下,公司到 2030 年收入约 43 亿美元、经营利润率约 13%,即使给予 12-15 倍远期 EV/Sales 或 25-30 倍 EV/Gross Profit,也很难自然支撑今天 560 亿-670 亿美元以上的估值;只有在 Bull 情景里,当市场相信 Cerebras 不再是“卖系统公司”,而是可持续的 AI infra platform 时,当前市值才有被中长期消化的可能。

估值框架

以当前估值反推市场在押注什么

按 IPO 价 185 美元完全摊薄估值约 564 亿美元计,Cerebras 对应 2025A 市销率约 111 倍;按首日收盘约 669.5 亿美元市值计,对应 2025A 市销率约 131 倍。若使用 2025 年 39% 毛利率折算,市场给予的 EV/毛利倍数处于 280-330 倍量级。作为参照,Nvidia FY2026 收入 2,159 亿美元,当前市值约 5.77 万亿美元,对应约 26.7 倍市值/收入;AMD 约 21.4 倍;Marvell 约 19.2 倍;Arm 与 Astera Labs 这类高增长 AI 资产约在 49 倍附近。即便使用对成长股更友好的“市值近似 EV”方法,Cerebras 的估值也显著高于现有可比公司。

相对估值近似表

上表使用实时市值与最近年度收入做近似比较,不是严格 EV/Sales,因为未逐一调整净债务,仅用于量级判断;但即便如此,Cerebras 的估值溢价仍然极其明显。

DCF 估值

我的 Base DCF 假设为:2025-2030 年收入 CAGR 约 53%,2030 年毛利率 50%,2035 年经营利润率 18%,WACC 12%,永续增长率 4%,CapEx 强度在 2026 年高位后逐步回落。基于此,Base 情景估值大致在 180 亿-250 亿美元。Bull 情景在更高收入、更快毛利改善和更低资本强度假设下,可上探 450 亿-600 亿美元;Bear 情景则可能低于 100 亿美元。这说明:**当前交易价格已经接近甚至超过我的 Bull 区间上沿。**分析师模型,无公司指引支持。

DCF 敏感性矩阵

该表为分析师敏感性测算,单位为美元企业价值。

SOTP 估值

按 Base 假设,我更倾向把 Cerebras 拆成三块:
其一,Hardware Systems,给予 2027E 收入 6-8 倍;
其二,Cloud / Inference Capacity,给予 2027E 收入 12-18 倍,但前提是利用率和续约可见性提升;
其三,Software / Services,给予 6-10 倍。
另对战略 backlog 只给有限期权价值,而不是全额资本化。按此,Base SOTP 大致在 220 亿-300 亿美元,显著低于当前交易水平。分析师模型。

因此,若一定要回答“市场当前在押注什么”,答案是:
**市场并不是在押注 Cerebras 成为另一家中等规模芯片公司;市场在押注它成为 OpenAI/AWS 体系中的关键推理基础设施供应商,并在三到五年内从高集中度系统销售商跃迁为高质量容量服务平台。**这是一个高门槛、但路径清晰的赌注。

Figure 9 · Forecast · Bear / Base / Bull · 2026 – 2035

情景间分歧最大的是 2030 之后

$0.5B$1B$2B$5B$10B$15B20262027202820302035Bear $2.5BBase $7.5BBull $15B

2030E · key metrics

Bear
GM40%OpM-10%FCF仍为负
Base
GM50%OpM13%FCF$3.5亿
Bull
GM57%OpM23%FCF$11亿
来源 · 分析师建模 · 非公司指引
对数 y 轴。右列为 2030E 关键指标卡

Figure 10 · Relative Valuation · approx mcap / revenue

Cerebras 是 Nvidia 估值倍数的五倍——而规模只有它的两千分之一

10x20x50x100x150xMarvell19.2xAMD21.4xNvidia26.7xAstera Labs48.6xArm48.7xCerebras (IPO 价)110.6xCerebras (首日收盘)131.3xP/S RATIO (LOG)
来源 · Yahoo Finance (实时市值) · 公司 2025 年报 · 数据截止 2026-05-14
X 轴 log scale。这不是严格 EV/Sales,未做净债务调整;仅用于量级判断

Figure 11 · DCF Sensitivity · WACC × long-term operating margin

即使最乐观假设下,DCF 估值也只有首日收盘市值的一半

WACC ↓ / OpM →15%20%25%
11%$200B$260B$330B
12%$170B$240B$300B
13%$150B$210B$270B
来源 · 分析师建模 · 非公司指引
所有格子单位为 EV ($B)。首日收盘市值 $66.95B 显著高于矩阵中任意格

Red Team 与跟踪框架

反共识判断

如果 Cerebras 最终失败,我认为最可能不是因为“技术根本不可用”,而是因为技术优势无法转化为可持续且高质量的经济价值。更具体地说,失败路径可能有五条。

第一,**它不是 Nvidia killer,而只是 ultra-low-latency inference appliance。**这条路径下,公司仍能活下来,也可能做成十亿级收入企业,但估值逻辑会从“基础设施平台”回落到“高性能硬件设备商”。届时应给予的估值中枢更接近高增长硬件公司,而不是云平台。

第二,**OpenAI/AWS 订单如果只是早期战略采购,而不是长期标准化采用,估值需要显著下修。**因为现在市场给的不是“一个大合同”估值,而是“一个大合同将开启一套可复制标准化模式”的估值。一旦 OpenAI 只是把 Cerebras 用于某个特定服务层,或 AWS 只把它作为 Bedrock 的高端选项,而没有形成跨模型、跨客户的常态化采购,那么今天的估值应更接近 Base SOTP 而非 Bull DCF。

第三,**如果公司必须大规模自建云基础设施,它会从“芯片 + 系统”公司变成“重资本数据中心公司”。**这将显著压低自由现金流回正时间,并把投资逻辑从产品领先转移到融资能力、机房建设、电力获取和资产周转效率。行业研究已经反复强调,电力、土地、冷却和资本是 AI infra 的约束瓶颈。

第四,**如果推理价格持续通缩,速度优势未必等于利润优势。**Gartner 预计到 2030 年,对 1 万亿参数 LLM 的推理成本将比 2025 年下降超过 90%。这意味着:客户会越来越把“速度优势”视为应有之义,而不是可长期收取高溢价的稀缺属性。只有当 Cerebras 把更高速度转化成更高利用率、更低 infra 成本、更高客户留存时,才有利润护城河。

第五,**软件生态若长期不能突破,它就会被锁在“只适合特定 expert workload”的小市场里。**这恰恰是很多非 GPU AI 芯片公司的前车之鉴;Graphcore 被 SoftBank 收购,本质上也是难以在 Nvidia 生态之外形成足够广阔的商业化系统。

上市后八个季度 KPI 跟踪表

以下表格以 2026Q2–2028Q1 为跟踪窗口,给出我认为最关键的指标和警戒线。数值阈值为分析师跟踪框架,不是公司指引。

需要继续尽调的问题清单

最值得继续深挖的问题,我认为有以下十项:

尽调问题为什么关键
OpenAI 250MW 首批交付的机房、电力、设备采购和上线里程碑是什么?决定 2026-2027 收入兑现
OpenAI 协议下价格机制与 pass-through 成本结构如何?决定云业务毛利率而非仅收入规模
AWS 合作是资源托管、联合产品,还是 Bedrock 标品 SKU?决定平台化程度
2025 年 246 亿美元 RPO 中,firm commitment 与 option 各占多少?决定 backlog 质量
公司是否需要大量表外/合作方融资建设云容量?决定资本开支与稀释风险
CS-3 与集群的真实 ASP/BOM/售后成本结构如何?决定 unit economics 真相
低时延推理的优势在客户层面如何计价?按 token、按容量还是按 SLA?决定速度能否变现
软件迁移成本与客户再部署时间相对 GPU 方案到底是多少?决定规模扩张上限
2026-2028 年 TSMC、封装、供电、冷却与机房资源是否已锁定?决定履约能力
第一批非 G42/MBZUAI/OpenAI/AWS 的“自然客户”是谁?决定是否真正走向广泛 PMF

投资委员会摘要

如果投资委员会要一句话结论,我的建议是:值得持续深挖,但当前价格不适合把“技术看多”直接等同于“股票看多”。
更准确地说:

  • 值得深挖的原因:Cerebras 的技术不是 PPT;WSE-3/CS-3 是真实差异化路线,OpenAI/AWS 的进入使其从“另类芯片故事”走向“主流 AI infra 供应商候选”。
  • 不宜贸然追高建仓的原因:现价已经把大量 Bull 情景提前计入,而历史收入质量、客户集中度、资金需求和软件生态问题都还没有在公开财务里被真正解决。
  • 最合理的投资姿势:把 Cerebras 当作“高确定性技术、低确定性估值”的标的跟踪。只有当未来 2-4 个季度证明 OpenAI/AWS 交付可兑现、云收入占比上升、毛利率不崩、客户集中度下降,市场才有理由继续给予它平台型溢价。否则,估值回归风险很大。

最终判断:谨慎。
更细的判断:看多技术,不追逐当前估值;看多中长期战略位置,但要求以季度验证换取估值容忍度。

Figure 12 · Tracking Dashboard · 8 quarters ahead

未来 8 季度的 15 个观察指标:健康 vs 风险阈值

KPI◉ 健康信号◉ 风险信号
季度收入连续 8 季同比 >50%,且非单一客户驱动增速 <30% 或极端依赖单一项目验收
毛利率2026 下半年稳住 38-42%,2027+ 修复 ≥45%因云扩容/价格竞争跌破 35%
Cloud / Services mix两年内提升至 ≥40%长期停留在 <30%
RPO / backlog持续增长且转收入效率可解释高增但确认滞后,解释含糊
前两大客户占比两年内降至 <50%继续维持 ≥70%
新客户数出现 3-5 个非 UAE/OpenAI/AWS 实质客户仍主要靠 OpenAI/AWS/G42/MBZUAI
CS-3 / Cluster 部署节奏与指引一致,主权 AI 新项目增加延迟频繁、口径模糊
已部署 MW 容量OpenAI 首批 250 MW 按期推进容量上线显著延期
推理性能指标第三方 benchmark 持续验证低时延领先只剩公司自说自话
Utilization云利用率持续向 70% 靠拢新建容量利用率长期 <50%
CapExCapEx/Revenue 2027 后显著回落高位持续、FCF 无改善
FCF2028 前后接近盈亏平衡持续大幅负值,依赖外部融资
R&D intensity投入足以支撑路线图,收入放大稀释比率研发不足,或投入高但无商业化改进
OpenAI / AWS 进展明确上线、续签、扩大范围长期停留在合作公告层面
管理层可信度指引兑现高、一致性增强季度间口径变化大
来源 · 分析师跟踪框架 · 非公司指引
移动端会自动重排为纵向卡片列表

Methodology · Data Freshness

数据截止2026-05-15 (Cerebras IPO 首日 +1)来源层级[1] SEC F-1/S-1 一手披露 [2] Reuters / FT / Barron's / MarketWatch [3] IDC / Gartner / TrendForce / McKinsey [4] OpenAI / AWS / G42 / MBZUAI 官告财务时序2022-2025 GAAP;2026-2035 分析师建模Comps 冻结日2026-05-14(Cerebras IPO pricing)模型局限单位经济缺公司官方 ASP / BOM 披露;利率 / 油价 / 电价敏感性未单独建模