a16z 合伙人:AI 投资不是泡沫 真正的资本周期才刚开始
不久前,a16z 普通合伙人 David George 与 Atreides Management 管理合伙人兼 CIO Gavin Baker 展开了一场关于「AI 时代的宏观逻辑」的深度讨论。
两人将当下的 AI 浪潮置于 2000 年互联网泡沫的镜像之中,对比“暗光纤”时代的产能闲置与当下“没有暗 GPU”的现实。
他们认为,这一次的投资并非投机,而是由现金流充沛、资产负债表最强的公司主导的理性扩张。资金正以前所未有的速度流向算力、模型与能源底座,背后是生存压力、技术跃迁与长期回报的三重驱动。
▍AI 泡沫的对比与现实
过去三十年里,科技产业经历了数轮资本与信仰的剧烈循环。每一次浪潮来临,总有人提出相似的问题:这是不是又一场泡沫?但若将当下的 AI 投资热与 2000 年的互联网与通信泡沫对比,差异几乎写在资产结构和回报率上。
2000 年的泡沫本质上是电信基础设施的过度扩张。当时的象征是“暗光纤”,即铺设完成但尚未点亮的通信光缆。在狂热期,美国境内约 97% 的光纤处于“暗”的状态,成为资本高估与产能闲置的典型符号。而今天,没有所谓的“暗 GPU”。所有 GPU 都在满负荷运转,从论文到生产线的迹象都表明算力在燃烧。企业不再为虚幻的潜力融资,而是在用每一块芯片去换取即时的计算回报。
估值层面也呈现出根本不同。2000 年泡沫顶点时,思科的市盈率高达 150~180 倍,而如今的核心算力公司约为 40 倍上下。价格体系虽仍昂贵,却有真实现金流支撑。更重要的是,投资回报率并未陷入透支。主要 GPU 投资者在启动大规模资本开支后, ROIC 平均提升约 10 个百分点,这意味着算力扩张尚在正回报区间内运行。
美国当前已有约 1 万亿美元的数据中心资产,未来五年计划再投入 3~4 万亿美元建设。这一数字若换算成通胀调整后的货币量,已超越美国用 40 年建成的州际高速公路系统。这样的基础设施密度让人直觉地感到“泡沫”临近,但对比另一组数据:过去 17 个月内,全球 Token 处理量增加了 150 倍。换句话说,使用量与供给同步放大。泡沫的典型特征是投资失速、需求虚高,而这一轮的增长更像是供需的正反馈。
互联网泡沫的另一个特征,是使用门槛与分发难度。2000 年时,互联网企业需要同时搭建“网站端”与“用户端”两套系统,形成一个双边网络效应。而 AI 工具的传播则直接建立在既有的云计算与互联网分发体系之上。一个 API 接口或网页入口,就能让数亿用户立即接入。这种“开灯即用”的基础设施特性,使得应用冷启动速度、覆盖面与渗透率都远高于当年的互联网浪潮。
资金来源与支付能力也是重要分野。当前 AI 投入的主力并非初创公司,而是手握万亿现金流的全球巨头。这些出资者合计年自由现金流约 3000 亿美元,账面现金约 5000 亿美元。按照平均点亮 1 GW 数据中心约需 400~500 亿美元的成本估算,整个体系存在约 8000 亿美元的“流动性缓冲”,且每年仍在以 3000 亿美元速度增长。这样的结构意味着,即便短期收益错配,资金仍可支撑长期试错与结构性升级。
这种局面不仅是财务耐力问题,更是一种“生存性投资”。头部公司的心态,不再是追求边际利润,而是确保在核心技术赛道上不被落下。在内部层面,这是一种“破产也要赢”的共识。资本支出与技术攻坚的关系因此转变为“战略性亏损”,即短期财报可承受波动,只为换取长期控制权。
与此相对应的,是对“循环交易”的担忧。表面上看,部分企业间存在资金与产品的闭环交易,但这并非传统意义上的泡沫型“自买自卖”,而是芯片、模型、平台之间的竞争互投。资金可替代性确实存在,但交易规模远低于泡沫阶段的虚假营收。驱动这一现象的核心,不是财务幻术,而是战略防御。在算力供应链中,竞争的边界模糊:供应方既可能是合作伙伴,也可能是潜在对手。
因此,今日的 AI 热潮并不具备 2000 年泡沫的虚假繁荣特征。其资本投入集中于算力、算法与能源的真实环节,资金来源高度集中且具自循环能力,市场使用量与基础设施扩张保持动态均衡。真正值得警惕的,反而是效率红利逐渐递减后的资本回报下滑,而非投机泡沫破裂。
▍巨头与算力:理性扩张的底层逻辑
理解这轮 AI 投资浪潮的关键,在于认清资本开支背后的主导者与回报结构。与互联网早期的草根创业不同,如今真正撬动 GPU 采购与数据中心建设的,是拥有历史最高现金储备的全球科技公司。这些公司合计拥有约 5000 亿美元现金储备,每年可稳定产生 3000 亿美元自由现金流,形成了一个自我造血、近乎封闭的投入体系。
在这样的结构下,即使单个项目的 ROI 在短期出现偏移,也不会引发系统性风险。一个典型的例子是,大规模数据中心的点亮成本约为 40~50 亿美元每 GW,这样的资本支出对于现金流充裕的公司而言仍在可承受区间内。换言之,这是一场“由盈利企业主导的资本支出潮”,而非由融资驱动的投机潮。
这些公司之间的关系既是合作,也是博弈。GPU 投入与模型训练之间的资金循环,在外部被误读为“自买自卖”的回旋融资。但从产业逻辑看,这种循环是一种竞争制衡机制。芯片供应商与模型实验室的交易,实质是以投资绑定生态,以供应锁定份额。市场上确实存在部分资金可替代性,但规模相对有限,更多体现为战略布局。
当前的竞争核心已不在 AMD、Broadcom、Marvell 或 Intel 等传统芯片厂商之间,而集中在 Nvidia 与 Google TPU 的对抗。TPU 的优势在于与自家模型与云计算体系深度耦合,形成一个集硬件、算法、服务为一体的纵向体系;Nvidia 则通过软件栈 CUDA 和系统级集成,将自己从“芯片公司”进化为“数据中心公司”。它不再仅仅销售芯片,而是销售一整座可复制的计算工厂。
这种结构转型,带来了算力产业史上罕见的集约化。Broadcom 与 AMD 形成的联合模式,正试图以开放式以太网为基础,为大型云厂商搭建可对抗 Nvidia 专有网络的“第二体系”。但就如过去 Google 迭代 TPU 花了三代才成熟一样,ASIC 的失败率依然高企,未来三年内可能会出现多起高调取消计划的案例。而一旦 Google 开始对外销售 TPU,这种芯片格局将进一步重塑。
从系统层面看,Nvidia 的技术优势不仅体现在硬件堆叠上,更在于对全栈架构的统筹。GPU、NVLink、高速以太网、InfiniBand 等构成了它的“算力网络”,通过硬件与软件协同优化,实现规模化部署的低延迟与高吞吐。这使得 Nvidia 具备了前所未有的定价权——它掌控的不只是芯片,而是整个算力生态。
这种全栈掌控,也解释了市场上所谓“循环投资”的合理性。部分芯片销售额确实来自于 AI 实验室的融资反哺,但背后的逻辑并非财务虚构,而是供需博弈的必然产物。Google 拥有 DeepMind 与 Gemini,自然形成了一个闭环的对手格局;为了不让竞争对手掌握芯片上游, Nvidia 选择通过投资、合作、预付等方式绑定下游使用者,这是合理的防御策略,而非泡沫行为。
算力投资背后的心态,也体现了巨头对 AI 的生存性认知。内部人士曾形容这种心态为“破产也要赢”,意味着在战略层面,短期利润让位于长期控制权。AI 被视为关乎公司命运的底层赛道,任何掉队都可能意味着被重写历史。这与传统意义上的资本逐利不同,更接近冷战时期对“技术领先权”的争夺。
回报结构的稳健,还源于算力使用的即时性。与“暗光纤”时代不同,如今每一块 GPU 都在参与模型训练与推理。训练任务的爆发,使算力几乎没有闲置的可能。从技术论文到产业内部数据,都反映出“GPU 在融化”——即算力利用率逼近极限。在这样的背景下,资本开支并未滞后于需求,而是被需求实时牵引。
对于长期投资者而言,这种由现金流充裕、技术领先的公司主导的基础设施扩张,意味着可预测性与韧性。即使部分企业在未来的 Blackwell 世代投入后出现边际回报下降,整体 ROI 仍处在正区间。迄今为止,这一轮 AI 投入仍是“正回报周期”,没有出现过剩产能与估值脱锚的迹象。
因此,当外界仍在用“泡沫”框架理解 AI 时,资本市场的真正变化在于逻辑的升级。它不再是以“梦想换估值”的周期,而是以“现金换算力”的竞争。能持续输出自由现金流的企业,才有资格参与这场博弈。未来风险或许仍然存在,但更多来自算力效率与能耗的物理极限,而非金融层面的崩塌。
▍模型生态与应用层的商业分化
在算力基础设施逐步固化的同时,AI 产业的焦点正从“建厂”转向“应用”。然而,应用层的格局远未明朗。如果说 ChatGPT 是 AI 世界的 Netscape,那么整个产业仍处在互联网时代 Google 尚未诞生、Facebook 还在校园里的早期阶段。成熟的生态与赢家都尚在形成之中。
这种阶段性的不确定,使得基础设施层显得更“安全”。算力、网络与模型的供给方可以通过规模效应锁定长期回报,而应用层则处于高流动、高淘汰的探索期。投资者普遍承认,面对快速演化的模型周期,保持谦逊是必要的美德。早期预测哪一家能成为“AI 版 Google”,几乎是不可能的。
值得注意的是,AI 的创新属性与互联网初期不同,它可能并非“颠覆式创新”,而更接近一种“延续性创新”。数据、算力、分发——这三项构成竞争壁垒的要素,恰恰掌握在现有科技巨头手中。这些公司不仅有庞大的数据资产,还能自筹资本购买计算资源,同时通过操作系统、搜索、社交等渠道直接触达用户。因此,只要执行到位、战略正确,现有的“七巨头”完全有可能在新周期中继续主导。
这种延续性结构也带来一个微妙的风险:一旦执行失误,结果可能类似于 IBM 被历史淘汰。AI 对这些公司而言是生存问题,不是业务扩张问题。它迫使每一个拥有全球分发能力的企业重新审视组织结构、工程节奏与内部文化。从这一点上看,AI 并非简单的技术转折,而是一场管理与决策体系的“再编程”。
AI 商业模式的另一大分化点,体现在毛利率的重新定义。过去 SaaS 公司的毛利率常年维持在 80%~90% 的高位,而 AI 应用的规模律意味着计算开销将长期压低毛利。训练和推理的算力消耗,使得 AI 产品更像是“重服务业”,其成本结构不可逆地从纯软件转向硬件密集型。
这并不意味着 AI 应用不是好生意。关键在于重新理解利润的分布方式:如果运营开销(Opex)得以显著压缩,那么即便毛利率下降,也可以维持整体盈利能力。AI 的“好生意”不再取决于毛利高低,而在于规模放大后能否保持正现金流与产品粘性。这与传统 SaaS 靠许可费和订阅差价的模式完全不同。
在投资者的语境里,低毛利反而正在被重新解读为“成功的证明”。在 AI 领域,低毛利意味着产品确实被大量使用。因此,当一家公司宣称自己是 AI 企业却依然维持 80% 以上毛利时,投资人反而会怀疑它的真实使用量。这种认知转变也开始在资本市场形成共识:与其拥有小体量高利润,不如拥有大体量、低毛利的高速增长。
这种逻辑在企业战略上也有可操作的路径。传统 SaaS 公司完全可以利用现有高利润业务,去补贴新一代 AI 产品线的扩张。以此实现“利润换时间、时间换份额”的策略。微软与 Adobe 的历史转型便是例证:两家公司都在从本地授权制过渡到云订阅时经历了毛利下降,但凭借规模与产品复合增长,股价在十年内实现了翻倍以上的回报。
这类转型中最常见的误区,是企业过度防守既有利润率结构。许多公司害怕毛利下滑会被市场惩罚,而忽略了规模扩张带来的长期估值提升。在 AI 周期里,想维持旧有高毛利本身就是错位的战略。真正聪明的公司,会将毛利下降视为业务成熟的标志,而非危机信号。
当前一些领先的 AI 工具公司,已经在以这种方式试探边界。例如 Figma 宣布将以较低毛利率推广新一代 AI 工具,投资者最初提出疑问,但在确认其可带来用户扩张后,反而给予正面反馈。市场正在学习如何重新定价“增长与利润”的关系。
与此同时,AI 的平台化趋势让应用层之间的竞争更复杂。基础模型提供方(如大型云厂)既扮演基础设施,又直接涉足应用。这使得纯粹的“独立应用创业”难度大幅提升。企业若想在这种体系下突围,必须找到未被巨头完全覆盖的垂直领域——尤其是那些碎片化、非标准化的行业需求。
这也是许多投资人看好中小企业服务市场(SMB)的原因。在这种客户结构下,AI 工具可以通过高效率取代原有人力环节,从而在单客利润有限的情况下实现规模化渗透。对于这类市场而言,AI 不仅是自动化工具,更是“能力外包”的新形式。
当行业重新定义毛利、回报和增长时,AI 产业的价值逻辑也在被重写。它不再是“软件即利润”的延伸,而是一种更复杂、更贴近实体经济的复合模型。每一家 AI 公司都在学习如何平衡算力成本、模型推理与商业化节奏,这也是未来几年竞争的真正主线。
| 感动 | 同情 | 无聊 | 愤怒 | 搞笑 | 难过 | 高兴 | 路过 |
- 上一篇:加密新银行:财富留在链上,消费无需下链
- 下一篇:x402协议:AI+Crypto
相关文章
-
没有相关内容

会员登录