跳转到主要内容

未来三年,谁将掌握太空数据中心的秘密,引领AI竞争?

日期: 栏目:快讯速递 浏览:

编辑 | LSLS

出品 | 本站

“AI 时代,谁是 token 的最低成本生产者,谁就拥有决定性优势。”

“未来三四年,最重要的事情是太空数据中心。”

近日,知名科技投资人Gavin Baker在最新采访中与主持人深入探讨了英伟达与谷歌之间的基础设施战争,Gemini3和Scaling Law的影响,以及从Hopper向Blackwell芯片的转变如何重塑了整个行业。

Gavin Baker是Atreides Management的管理合伙人兼首席投资官(CIO),以其在公开市场上对科技趋势,尤其是AI领域的深刻洞察而闻名。

其中有关太空数据中心的观点,也得到了马斯克的认同:

Gavin尖锐地指出,过去几年所有AI公司都陷入“囚徒困境”:如果你放慢脚步,你就永远出局;如果竞争对手不停,你只能继续投。

他认为,在模型进展上,Gemini 3 证明Scaling Law仍然成立。过去一段时间 AI 的主要进步则更多来自后训练的两条新缩放路径,也就是带验证回报的强化学习与测试时算力,让 AI 在新一代硬件还没有完全到位时仍能继续推进。

Blackwell(GB200/GB300)和 AMD MI450 的出现,将带来大幅降低每 token 成本的能力。Gavin强调,xAI 将是最快推出 Blackwell 模型的公司,因为它拥有最快的数据中心部署能力和大规模集群调通经验。

Gavin还指出,过去 Google 是全球最低成本 Token 生产者,这给了他们巨大优势。但随着GB300开始量产,低成本时代将属于 Nvidia 的客户,如OpenAI、xAI 等。

至于太空数据中心的建设,他认为这是未来三到四年最重要的事情,“现在这是一场巨大的淘金热”。

此外,他还分析了:

  • AI 推理如何让飞轮启动,彻底改变数据和用户反馈的价值逻辑;
  • 端侧 AI 对算力需求的潜在冲击,可能让云算力的爆发放缓;
  • SaaS 公司在 AI 时代面临的毛利困局,以及谁能抓住下一波风口。

小编节选整理了博客内容,信息量巨大,enjoy!

Gemini 3 与前沿模型整体进度

主持人:公众对 Gemini 3 的理解大多集中在扩展定律(Scaling Laws)与预训练机制。你怎么看当前的前沿模型整体进展?

Gavin:Gemini 3 非常重要,因为它再次确认:预训练的扩展定律仍然成立。

关键在于,全世界没人真正知道为什么扩展定律成立。它不是理论,是经验事实,而且被极其精确地测量、验证了很多年。我们对扩展定律的理解,就像古埃及人对太阳运行的理解:能精确测量,却完全不知道背后的物理机制。所以每一次确认都非常关键。基于扩展定律,其实 2024–2025 按理应该没有任何 AI 进展。

原因是:xAI 把 20 万 Hopper GPU 做到完全“coherent”(训练时 GPU 彼此同步共享状态)之后,下一步就必须等下一代芯片。Hopper 时代的上限就是 20 万片,你再扩都没用。

但真正的故事是: “推理(Reasoning)”救了整个 AI 行业

如果没有推理模型(OpenAI 在 2024 年 10 月推出的 Reasoning 系列),整个行业会从 2024 年中期到 2025 年底 陷入 18 个月停滞。

推理带来了两条全新扩展定律:

  1. 强化学习 + 可验证奖励(RL + Verified Rewards)“在 AI 中,凡是你能验证的,你就能自动化。”
  2. 测试时计算(Test-Time Compute)也就是让模型在推理阶段使用更多算力。

这两条扩展定律让 AI 在没有新 GPU 的 18 个月里依然高速进步。

 xAI会最快训练出 Blackwell 模型

Gavin:Google 在 2024 推 TPU v6、2025 推 TPU v7。这些芯片性能飞跃巨大,相当于从二战战机跳到冷战喷气机。

因为 Nvidia Blackwell(GB200)极度困难、延迟严重,Google 等于是提前拿到了下一代“材料”。Gemini 3 正是在更强 TPU 上验证预训练扩展定律的第一次大考,结果通过了。

这意味着:Blackwell 时代训练出来的模型会非常强。2026 年初会出现第一批真正的 Blackwell 模型。我认为最快的是 xAI。理由很简单:黄仁勋曾说过,“没有人比 Elon Musk 更快建数据中心。”

Blackwell 这种超级复杂的芯片,需要海量集群快速部署来“磨合”。只有 xAI 能做到最快部署、最多集群、最快调通。所以他们会最先训练出 Blackwell 模型。

Google“低成本生产 Token”的战略地位将被逆转

Gavin:过去 Google 是 全球最低成本 Token 生产者,这给他们巨大优势:他们可以用低价(甚至负毛利!)让竞争对手几乎无法呼吸。这是极其理性的企业战略。

但当 GB300(比 GB200 更强)开始量产、并且能无缝替换进现有机房后,低成本时代将属于 Nvidia 的客户(OpenAI、xAI 等)。

到那时,Google 就不再是最低成本生产者,就不能再轻易靠“负 30% 毛利”窒息竞争者。AI 行业经济格局将大幅改变。

为什么 TPU v8 / v9 赶不上 GPU?

主持人:

为什么会这样?为什么 TPU v8、v9 无法做到和 GPU 一样优秀?

Gavin:

这里有几点原因。

第一点:Google 做了更加保守的设计选择

原因之一我认为是他们的芯片设计流程本身比较特殊。半导体设计分为前端(Front-End)与后端(Back-End)。另外还有与台积电合作的晶圆代工环节。制造 ASIC 有很多方式,而 Google 的方式是:

  • Google 主要负责前端设计(相当于建筑师画房子的图纸)
  • Broadcom 负责后端设计与量产(相当于施工方盖房子,并负责与台积电合作)

这是个粗略类比,但能说明问题。

Broadcom 的半导体业务长期维持 50~55% 毛利率。我们不知道 TPU 的具体数字,但如果假设到 2027 年 TPU 业务规模达到 300 亿美元,那么 Broadcom 大概会从中赚走 150 亿美元的毛利。

对 Google 来说,这实在太贵了。

当一个公司把 ASIC 业务做大到这种量级,就会出现一个非常明显的经济动力:把所有芯片设计和制造流程“收归自研”。

苹果就是这么干的。苹果的芯片没有 ASIC 合作伙伴,前端苹果自己做,后端苹果自己做,生产也由苹果直接管理台积电,因为他们不想为外包设计付 50% 毛利。

当业务规模够大时,你完全可以把 Broadcom 这类供应商的工程师挖走、薪水翻倍、甚至三倍,还可以省钱。

如果 TPU 到 2028 年规模做到 500 亿美元,那 Google 每年付给 Broadcom 的钱会变成 250 亿。那 Google 完全可以去 Broadcom 把整个团队全买走,把成本反而降下来。

当然,出于竞争与监管原因 Google 不能真的这么干,但这些“经济摩擦”已经影响 TPU v8 / v9 的设计节奏了。

第二点:Google 引入了联发科(MediaTek),在敲打 Broadcom

这是一个明确的信号:Google 对付给 Broadcom 的高额费用已经非常不满。台湾的 ASIC 公司(包括联发科)毛利要低得多,把他们引入,就是“第一枪”。

第三点:SerDes 是芯片之间通信的核心技术,但有价值上限

Broadcom 的 SerDes 确实很好,但SerDes 的价值上限也就 100~150 亿美元级别,绝没到 250 亿美元 这种程度,世界上还有其他优秀的 SerDes 供应商

所以,Google 没必要永远被 Broadcom 卡住。

第四点:Google 的保守设计,可能是因为供应链“分裂”要开始了

Google 正在准备多家供应商并行工作(Broadcom + MediaTek)。这种“分裂的供应链”会让设计更加保守,因为你要保证每家厂商都能按时做出一致的结果。这让 TPU 的迭代速度变慢了。

第五点:GPU 正在加速,而 ASIC 正在变慢

这是行业最关键的趋势。Nvidia 和 AMD 的回应是:

“你们所有人都在造自己的 ASIC?好,我们就一年一代,让你们永远追不上。”

GPU 的迭代速度现在是过去的 2 倍甚至 3 倍。而当你去做 ASIC(TPU、Trainium、各种自研芯片)时,你会突然意识到:

“哦……原来造 ASIC 根本不是只做一个芯片这么简单!”

你要同时解决:芯片本体、NIC(网络接口卡)、CPU、Scale-up 交换机、Scale-out 交换机、光模块、软件栈、训练框架、生态系统、整个供应链。

你做出来一个小芯片,结果发现:

“糟糕,我只是做了一个微小组件,而 GPU 厂商已经把整个巨型系统打通了。”

第六点:做出“好 ASIC”需要至少三代

Google TPU 的历史就是活生生的例子:

  • TPU v1:能用,但力量不足
  • TPU v2:好一点
  • TPU v3/v4 才开始接近真正“能打”

Amazon 的 Trainium 也是一样:

  • Trainium 1:比 TPU v1 略好,但差不多级别
  • Trainium 2:变强一点
  • Trainium 3:第一次达到“可以接受”
  • Trainium 4:预计才会真正成为好芯片

这就是经验积累 → 工程成熟 → 系统打磨,无法跳步骤。

这意味着所有其他试图“自研 AI 芯片”的公司都会发现自己根本追不上 Nvidia、AMD。

第七点:最终,TPU 和 Trainium 也会变成“客户自有工具链”

你可以争论具体年份,但方向是确定的。因为从第一性原理来说,当规模足够大,把芯片从外包转为自研是经济必然。

主持人:

如果把视角拉远一点,这一切的意义是什么?三代 GPU、三代 TPU、三代 Trainium 之后,这场巨大战争将给全人类带来什么?

Gavin:

如果让我给出一个事件路径:

第一步:Blackwell 时代的模型将极其强大。

第二步:GB300(以及 AMD MI450)带来每 Token 成本的大幅下跌。

这会让模型可以“思考更久”。当模型能思考更多步,就能做新的事情。

我被 Gemini 3 第一次“主动帮我做事”震撼到:它帮我订餐厅。以前模型都是给我生成文字、做研究,这次是直接办成一件现实任务。

如果它能订餐厅,那就离订机票、订酒店、打 Uber、管日程、全面生活助理不远了。

大家现在都在谈这个,但真的想象一下:这东西最终会跑在手机里。这就是近期就会发生的未来。

而且你看,现在一些非常“技术前沿”的大公司,他们超过 50% 的客服已经完全由 AI 处理了。客服是一个 4000 亿美元的大产业。而 AI 特别擅长的一件事,就是“说服”,这正是销售和客服的核心能力。

从一家公司的角度想,如果把业务拆开,就是:做产品、卖产品、服务用户。现在看,到 2026 年底,AI 很可能在其中两块已经非常拿手了。

这又回到 Karpathy 说过的那句话:AI 可以自动化所有“可被验证”的任务。

凡是存在明确对错结果的事情,你都可以用强化学习把模型训练得非常强。

主持人:你最喜欢的例子有哪些?或者说未来最典型的?

Gavin:比如让模型自动训练模型本身;比如全球账目是否能对齐;比如大规模会计工作;或者销售、客服这些“明确可验证结果”的任务。

如果这些在 2026 年开始全面落地,那么NVIDIA Blackwell 就有明确 ROI,然后领域继续往前走,接着会迎来 Rubin,再接着是 AMD MI450、Google TPU v9。

ASI与大公司的“囚徒困境”

Gavin:

但最有意思的问题是:人工超级智能(ASI)到底会产生怎样的经济回报?

过去几年所有公司都陷入“囚徒困境”:如果你放慢脚步,你就永远出局;如果竞争对手不停,你只能继续投。

微软今年早些时候“犹豫”了 6 周,我想他们大概会说他们后悔。

但是随着 Blackwell、特别是 Rubin 的到来,经济因素将会压倒囚徒困境。因为数字实在太夸张了。

你看那些买 GPU 最大的公司,都是上市公司,他们每季度都有审计过的财报,你完全可以算出他们的 ROIC(投入资本回报率)。而所有这些公司在大规模买 GPU 后,ROIC 比之前更高。

有人说那是因为减少了运营成本,但那本来就是期待的 AI ROI。

还有很多收入增长,其实来自广告推荐系统从 CPU 迁移到 GPU 带来的效率提升。但不管怎样,ROI 已经非常明确。每家互联网大厂内部,掌管营收的人都非常不爽,因为他们认为太多 GPU 被给了研究团队:“你把 GPU 给我,我就能增长营收。”这在每家公司都是永恒的争夺。

主持人:我很好奇你有哪些“泼冷水”的看法,会让算力需求增长放缓?

Gavin:最明显的“空头逻辑”是 端侧 AI(Edge AI)。

三年后,只要手机稍微变厚一点、塞下更多 DRAM、电池短点续航,你就能在本地运行一个剪裁版 Gemini 5、Grok 4/4.1、ChatGPT,达到30–60 tokens/s,IQ 115 左右。而且这是免费的。

显然,这就是苹果的战略:在本地运行隐私安全的模型,只有需要时才调用云端的“上帝大模型”。

如果端侧 AI 满足90% 的需求,那这将是最吓人的“空头论点”。另一个风险是 scaling law 不再生效。但如果假设 scaling law 继续有效,预训练肯定还能撑一代;后训练(RLVR 等)刚起步;推理阶段的 test-time compute 也才刚开始。

而且我们已经在取得巨大进展,比如模型能把越来越多上下文装进“脑子”里。

长期来看,大上下文窗口可能是解决当前很多问题的关键。配合 KV-cache offload 这一类技术,它们潜力巨大。

对 Meta、Anthropic、OpenAI的看法

主持人:我们其实还没有聊太多 Meta、Anthropic、OpenAI。我很好奇你对整个基础设施层的看法。这三家是这个“大博弈”里最关键的玩家。

我们前面讨论的所有趋势,对这几家公司会产生什么影响?

Gavin:我先谈谈对 frontier 模型整体的一些看法。

在 2023–2024 年,我特别喜欢引用Erik Brynjolfsson(美国经济学者) 的一句话。Erik 说:“基础模型是历史上增值速度最快的资产。”

我认为他说对了 90%。我当时补了一句:“拥有独特数据和互联网级别分发能力的基础模型,才是历史上增值最快的资产。”

但“推理” 的出现彻底改变了这一切。

以前所有伟大互联网公司的核心飞轮都是:做出好产品→ 吸引用户 → 用户产生数据 → 用数据改进产品 → 更多用户 → 更多数据……

Netflix、亚马逊、Meta、谷歌都靠这套飞轮运转十年以上,这也是为什么它们拥有极强的规模回报。然而,这个飞轮在“无推理能力”的AI 时代是不存在的。你预训练一个模型,把它丢到现实世界,它就那样了。你可以做 RLHF,基于一些用户反馈去调整,但那个过程噪音大、信号弱、反馈难以精确量化,很难真正变成“可验证奖励”反馈回模型

但推理让飞轮开始转动了。现在,如果大量用户不断提出某类问题,并持续对某些回答给出明确的正向或负向反馈,这些都能被转化为可度量、可验证的奖励信号,再反馈回模型做强化学习。

我们现在还处在非常早期的阶段,但飞轮已经开始转动了。这是对所有 frontier labs 的格局影响最大的变化。

主持人:你能具体解释一下吗?为什么 reasoning 会让飞轮成立?

Gavin:如果大量用户在问同一个问题,并稳定地偏好某些答案、不喜欢另一些答案,这就产生了一个稳定一致的奖励信号。而且这个奖励信号是可验证的。模型就能把这些偏好再次学习回去。虽然现在还早、还很难做,但你已经能看到飞轮开始启动。第二点,我认为非常重要的是:Meta。扎克伯格在今年1 月曾说过一句话:“我高度确信,到2025 年的某个时间点,我们将拥有最强、最好的AI。”

我现在不确定他是不是仍然能排进前 100 名。他当时的判断可以说是错得不能再错。而我认为这是一个非常重要的事实,因为它说明:这四家美国前沿实验室做到的事情,其实难度远比外界想象的大。Meta 砸了巨额资金,也失败了。Yann LeCun团队出现动荡,他们甚至推出了那个著名的“10 亿美元挖 AI 研究员”的计划。

顺带说一句,微软也失败了。他们虽然没有像 Meta 那样做明确预测,但微软收购了 Inflection AI,当时他们内部也多次说:“我们预期自己的内部模型会迅速变强,未来 Copilot 会越来越多跑在内部模型上。”

亚马逊则收购了 Adept AI,他们有自己的 Nova 模型,但我不认为它能进入前 20 名。所以很显然,这件事比一年前所有人以为的都要难得多。

原因有很多,例如要让一个巨型 GPU 集群保持“同步一致”其实非常困难。许多传统科技公司过去运营基础设施时都以“节省成本”为核心,而不是以“性能复杂度”为核心。要让一大堆 GPU 在大规模集群里保持高利用率,这是极其难的事情,而且不同公司在 GPU 运维能力上差距非常大。

如果你最多能把两、三十万颗 Blackwell(GPU)跑到高效一致,而你的集群只有 30% 的有效运行时间,而你的竞争对手能做到 90%,那你们根本不在同一个维度竞争。

这就是第一点:不同公司在 GPU 运维能力上存在巨大差距。

第二点,这些 AI 研究人员喜欢谈“品味”,我觉得很好笑。“你为什么赚这么多钱?”“因为我的品味很好。”所谓“品味”,其实就是一种对实验方向的直觉判断能力。而这正是为什么这些人能拿很高的薪水。

随着模型规模继续增大,你已经不能像以前一样,先在一个 1000 GPU 的集群上跑一次实验,再把它复制到 10 万 GPU 上。你必须直接在 5 万 GPU 规模上跑实验,而且可能要跑好几天。机会成本极高。所以你必须有一支极强的团队,知道应该把算力押在哪些实验上。

然后,你还必须把 RL(强化学习)、后训练、推理成本控制等所有部分都做到很好。整个流程极其复杂。

做这一切,非常非常难。很多人以为简单,但其实一点都不简单。我以前做零售行业分析时常说:在美国任何一个行业,如果你能运营 1000 家门店,并让它们保持整洁、灯光明亮、陈列合理、价格得当、员工友好并且不偷东西——你就能成为一家 200 亿或 300 亿美元的公司。但结果是,全美国只有 15 家公司能做到。真的非常难。

AI 也是同样的道理:要把所有环节都做到位,非常难。而这也让所谓的“推理飞轮”开始拉开差距。

更重要的是,这四家实验室,XAI、Gemini、OpenAI、Anthropic,它们内部都有比公开型号更先进的“检查点”。所谓检查点,就是模型持续训练过程中阶段性的版本。

它们内部使用的版本更强,它们又用这些更强的版本去训练下一个版本。如果你没有这些最新的 checkpoint,你就已经落后了,而且会越来越难追上。

中国开源对 Meta 来说是“天赐礼物”。因为 Meta 可以用中国开源模型当成自己的 checkpoint,从而实现“自举”(bootstrap)。我相信他们正在这么做,其他公司也一样。

OpenAI的最大痛点:Per-token成本太高

Gavin:

回到公司竞争格局:XAI 将会是第一家推出 Blackwell 模型的公司,也是第一家在大规模推理场景中使用 Blackwell 的公司。这对他们来说是非常关键的节点。

顺便说一句,如果你现在去看 openrouter 的数据,xAI 已经占据主导地位了。openrouter 可能只占 API token 的 1%,但它是一个趋势信号:

  • XAI 处理了大约1.35 万亿 token
  • Google 大约800–9000 亿
  • Anthropic 大约7000 亿

XAI 表现非常好,模型也很棒,我强烈推荐。

你会看到:XAI 先推出模型,OpenAI 会随后跟上,但速度更快。

但是 OpenAI 现在最大的痛点,是它们的 per-token 成本太高,因为他们需要为算力支付溢价,而且合作方不一定是最擅长运维 GPU 的那批人。结果就是OpenAI 是高成本的 token 生产者。这也解释了他们近期的“红色警戒”。

他们承诺了1.44 万亿美元的未来 GPU 支出,这是一个巨大的数字,因为他们知道自己需要大量融资,尤其是如果 Google 继续“把生态的经济氧气吸干”,那 OpenAI 的压力更大。

他们会推出新模型,但在相当长的时间里,他们仍然无法解决自己相对于 XAI、Google、甚至 Anthropic 的成本劣势。

Anthropic 是一家好公司,他们烧钱远低于 OpenAI,但增长更快。所以我觉得必须给Anthropic很多的认可,而这很大程度上得益于他们和Google、Amazon在TPU和Trainium上的合作关系。Anthropic能够从与Google相同的动态中受益,我认为这在这场精彩的“国际象棋”游戏中非常具有指示意义。你可以看看Daario Jensen,可能有一些公开评论,他们之间有一些小小的交锋。

Anthropic刚刚和Nvidia签了50亿美元的合同。那是因为Dario是个聪明人,他理解关于Blackwell和Rubin相对于TPU的这些动态。所以Nvidia现在从原来的两个“战士”(XAI和OpenAI)增加到了三个战士。这有助于Nvidia在与Google的竞争中占据优势。如果Meta能够赶上,这也非常重要。我相信Nvidia会尽其所能帮助Meta,比如:“你这样运行这些GPU,我们或许可以把螺丝拧紧一点,或者调整一下参数。”此外,如果Blackwell回到中国,看起来很可能会发生,那也非常好,因为中国的开源生态也会回归。

未来三到四年,最重要的是太空数据中心

主持人:我总是很好奇关于数据中心的一些问题,比如你脑中有没有关于非芯片方面的突破?

Gavin:我认为未来三到四年世界上最重要的事情是太空中的数据中心,这对地球上建造电厂或数据中心的人都有深远影响。现在这是一场巨大的淘金热。

大家都觉得AI很有风险,但我打算建一个数据中心,一个电厂来驱动数据中心。我们肯定需要它。但如果从最基本的原理来看,数据中心应该建在太空里。运行数据中心的基本投入是什么?是电力、冷却和芯片。总成本角度来看,这就是全部的投入。

在太空中,你可以让卫星全天候在阳光下运行,而且阳光的强度高出30%。你可以让卫星一直接收光照,这意味着外太空的辐照度比地球高六倍,所以你能获得大量太阳能。其次,因为全天都有阳光,你不需要电池,而电池成本占比巨大。所以太空中可用的最低成本能源就是太阳能。

冷却方面,在一个机架中,大部分重量和体积都是用于冷却,而地球上的数据中心冷却非常复杂,包括HVAC、CDU、液冷等。而在太空中,冷却是免费的,你只需把散热器放在卫星的背光面,这几乎接近绝对零度,所有这些成本都消失了,这节省了大量开销。

每颗卫星可以看作是一个机架,也有人可能制造三机架的卫星。那么如何连接这些机架呢?在地球上,机架通过光纤连接,本质上是通过电缆传输激光。而唯一比光纤更快的,是通过真空传输激光。如果你能用激光把太空中的卫星连接起来,你就拥有比地球数据中心更快、更稳定的网络。

训练方面,这需要很长时间,因为规模太大。但推理(inference)方面,我认为最终训练也会发生。考虑用户体验:当我问Grok问题并得到回答时,手机发出的无线电波传到基站,然后进入光纤,经过纽约某个汇聚设施,再到附近的数据中心完成计算,最后返回。如果卫星可以直接与手机通信,而Starlink已经展示了直接到手机的能力,那么体验将更快、更低成本。所以从最基本的原理来看,太空数据中心在各方面都优于地球上的数据中心。

主持人:那么阻碍因素是什么?是发射成本吗?还是发射可用性问题?

Gavin:我的意思是,我们需要大量的太空飞船。像Starship这样的飞船是唯一能够经济地实现这一目标的飞船。我们需要很多这样的Starship。也许中国或俄罗斯能够回收火箭,Blue Origin刚刚回收了一个助推器。这完全是一种全新的思考SpaceX的方式。很有趣的是,Elon昨天在采访中提到,Tesla、SpaceX和XAI正在趋于融合,实际上确实如此。

XAI将成为Tesla Optimus机器人的智能模块,Tesla Vision提供感知系统,而SpaceX将拥有太空中的数据中心,为XAI、Tesla、Optimus以及许多其他公司提供AI算力支持。这种融合非常有趣,每个公司都在为其他公司创造竞争优势。如果你是XAI,有了与Optimus的内建关系非常好,Tesla又是上市公司,任何内部协议都会经过严格审核,而太空数据中心又带来了巨大优势。此外,XAI还有两家公司拥有大量客户,可以帮助他们建立客户支持和销售AI代理系统。总的来说,这些公司正在以一种巧妙的方式融合在一起。我认为当xAI明年推出第一个Blackwell模型时,将是一个重要时刻。

如何看待算力短缺的周期性问题

主持人:历史上人类经济中短缺总会伴随资本周期的过剩。如果这次短缺是算力,比如Mark Chen曾表示,如果给他们几周时间,他们会消耗十倍算力。似乎算力仍然存在巨大短缺,但历史规律表明短缺之后会出现过剩。你怎么看这个规律在这项技术上的体现?

Gavin:AI与传统软件根本不同,每次使用AI都会消耗算力,而传统软件不会。确实,每家公司都可能消耗十倍算力,结果可能只是让200美元档的服务更好,免费档可能会加入广告。Google已经开始用广告为AI模式变现,这会给其他公司引入免费模式广告的许可,这将成为重要的ROI来源。OpenAI等公司也会在服务中收取佣金,例如帮你预订旅行,获取一定收入。

半导体行业中库存动态会导致周期性波动。半导体的“铁律”是客户缓冲库存必须等于交货周期,因此出现库存周期。我们最近没有看到真正的半导体产能周期,也许自90年代末以来就没有。原因是台湾半导体非常擅长整合和稳定供应,但现在他们的产能扩张未跟上客户需求。我认为台湾半导体可能会犯错误,因为他们过于担心产能过剩。他们曾经嘲笑Sam Altman,认为他不懂,他们害怕产能过剩。

从另一个角度看,功率作为“限速器”对最先进计算玩家非常有利。如果功率受限,计算成本就不重要,你每瓦特获得的算力越高,收入越高。建造数据中心的投资回报取决于单位功率的收益,这是对最先进技术非常有利的。

至于能源解决方案,美国无法快速建造核电站,法律和环境限制太严格。解决方案是天然气和太阳能,AI数据中心可以灵活选址,这也是为什么美国各地,包括Abilene,会有大量活动,因为这里靠近天然气产区。涡轮机制造商正在扩张产能,比如Caterpillar计划在未来几年增加75%产能,所以电力问题正在得到解决。

SaaS公司犯的“亚马逊式错误”

主持人:我们来谈谈SaaS吧,你怎么看?

Gavin:应用型SaaS公司正在犯和实体零售商对待电商时同样的错误。实体零售商,特别是在电信泡沫破裂后,他们看到了亚马逊,觉得“哦,它在亏钱,电商是低利润业务。”从基本原理来看,怎么可能效率更高呢?现在,我们的客户自己去店里,付运输费,然后再付把商品运回家的费用。如果我们直接把货物发给每个客户,怎么可能效率更低呢?亚马逊的愿景当然是,最终我们会沿街把包裹送到每户人家。因此,他们当时没有投资电商,虽然看到客户需求,但不喜欢电商的利润结构。这就是几乎所有实体零售商在投资电商方面动作缓慢的根本原因。

现在来看,亚马逊在北美零售业务的利润率甚至高于很多大众零售商。利润率会变化,如果客户需求一项根本性的变革性新技术,不去接受总是错误的,这正是SaaS公司正在犯的错误。

这些SaaS公司有70%、80%、甚至90%的毛利率,但他们不愿接受AI带来的毛利率。AI的本质是,每次都需要重新计算答案,而传统软件写一次就能高效分发,这也是传统软件很好的商业模式。AI正好相反,一个优秀的AI公司毛利率可能只有40%。

主持人:那为什么他们还能够早期产生现金流?

Gavin:奇怪的是,由于效率提升,他们比传统SaaS公司更早产生现金流,但不是因为高毛利,而是因为员工很少。看着这些公司很悲哀,如果你想运行AI代理,但不愿意接受低于35%的毛利率,它永远不会成功,因为AI原生公司就是以40%左右的毛利在运作。

如果你试图保持80%的毛利结构,等于保证在AI上失败,这是绝对的保证。这很疯狂,因为我们已有案例证明软件投资者愿意忍受毛利压力,只要毛利润美元总额合理,这就是云计算的存在证明。

你可能忘了,Adobe从本地部署转向SaaS模式时,不仅毛利下滑,收入也大幅下降,因为从一次性收费变为多年分期收费。微软的情况没那么戏剧,但早期云转型的股票也很难,投资者觉得“天啊,你是个80%毛利的业务,现在毛利下降到50%”。但事实证明,只要毛利润美元总额增长,这些毛利可以随着时间改善。微软买下GitHub,现在GitHub也成为Copilot的分发渠道,这是一笔巨大的业务,毛利较低,但成功了。

几乎没有一家应用型SaaS公司不能运行成功的AI代理策略。他们相较AI原生公司有巨大优势,因为他们有现金流业务。我认为有机会出现新的“建设性激进者”,去告诉SaaS公司:别再这么傻了。只需展示AI收入和毛利,说明真实的AI是低毛利的,并且对比风险投资支持的亏损竞争者。有些公司甚至可以暂时将毛利降为零,但他们有现成现金流业务。这是一套显而易见的玩法,Salesforce、ServiceNow、HubSpot、GitLab、Atlassian,都可以运行。

使用AI代理的方法很直接:先问自己,当前为客户提供的核心功能是什么?如何用代理进一步自动化?例如CRM,客户做什么?他们与客户沟通,我们做客户关系管理软件,也做客户支持。做一个可以执行这些功能的代理,以10%-20%的价格出售,让代理访问所有数据。目前的情况是,其他人开发的代理访问你的系统,把数据拉走,最终你会被替换。这完全是因为企业想保持80%毛利,这是一场生死攸关的决策。除了微软,几乎所有人都在失败。正如Nokia当年备忘录所说,你的平台在燃烧,你可以跳到新的平台去扑灭火。

标签: