跳转到主要内容

谷歌CEO揭秘:AGI之路的真相竟然隐藏在这些模型背后,你绝对想不到!

日期: 栏目:IT咨询 浏览:

编辑|LSLS

出品 | 本站

“我们大约50%的精力投入在规模化,50% 投入在创新。我的判断是:要实现 AGI,这两者缺一不可。”

谷歌 DeepMind 联合创始人兼CEO Demis Hassabis再度现身,对2025年进行了一波年终总结。

这期访谈的信息量相当密集,Demis结合谷歌之前发布的AlphaFold、Alpha GO和Alpha Zero等重要模型,谈论了对室温超导、核聚变及太阳能的看法、谷歌计划如何实现AGI、目前缺失的重要环节、对AI泡沫的判断、谷歌打造世界模型的进展等话题。

图片

Demis表示,过去十多年中的许多重大突破,从 Transformer 到 AlphaGo、AlphaZero,都源自 Google 或DeepMind。谷歌坚持50%的努力用于规模化,50% 用于创新。他认为在通向 AGI 的道路上,两者都不可或缺。

当然,他也指出现在的大模型还存在“锯齿状智能”:虽然能拿IMO金牌,解决非常难的题目,但有时也会在逻辑上犯基本错误。模型的持续在线学习能力仍是通往AGI的重要缺失环节。另外,Gemini 虽然很强,但目前仍缺乏置信度评分的设计。

有关世界模型的进展方面,Demis 透露谷歌用Genie 和 SIMA构建了一个可交互模拟世界,让智能体在虚拟环境中自主学习、实验,从而形成了一种训练闭环,具有几乎无限的训练样本。“SIMA 想学什么,Genie 就可以当场生成相应环境。”这种智能体实验未来甚至可以模拟整个社会的演化。

此外,他也透露谷歌正在构建“物理基准测试”,利用物理引擎生成大量简单但精确的实验,比如球在轨道上滚动、摆的运动等,来检验模型是否真正掌握了物理定律。

Demis 还爆料,谷歌在Gemini的设计上特意追求一种科学型人格:温和、友善、直接、敢于礼貌反驳错误信息,同时可根据用户需求个性化。

谷歌拥有语言、图像、音频、世界模型等多条路线的模型,Demis表示未来会把Gemini、Nano Banana、Genie、Veo、SIMA等等全部融合在一起,实现模型“大一统”,这就是AGI的原型。

Demis还谈论了自己对AI泡沫的看法,他认为AI短期被过度炒作,但中长期仍被严重低估。

在访谈的最后,Demis也展现出了相当强的使命感:他的目标不仅是打造Gemini这样的最强 AI,更是帮助人类安全跨过 AGI 这道门槛。他还说了一句相当震撼的话:

“可以这么说:到目前为止,我们还没有在宇宙中发现任何不可计算的东西。”

因此,探索机器智能的极限究竟在哪里也是他的终极目标之一。

小编整理了整期对话实录,信息量相当大,enjoy!

看好室温超导体、核聚变和太阳能

Hannah Fry:在你看来,过去一年最大的变化是什么?

Demis Hassabis:这真的很难选。正如你说的,感觉像是一年里压缩了十年的进展。如果一定要说的话,对我们而言,模型能力的整体跃迁非常显著,我们刚刚发布了 Gemini 3,对它的表现非常满意,多模态能力等方面都有了很大的进步。此外,今年夏天让我尤为兴奋的一点,是世界模型的进展,我想我们一会儿一定会谈到这个。

Hannah Fry:当然。我记得第一次采访你时,你提到过“根节点问题(root node problems)”,也就是通过 AI 解锁一系列下游收益的关键突破点。可以说,你们确实兑现了承诺。能否给我们更新一下:哪些已经解决,哪些接近解决,又有哪些就在不远的未来?

Demis Hassabis:当然。最重要的验证无疑是AlphaFold。现在回头看,AlphaFold(准确说是 AlphaFold2)向世界发布已经快五年了,这本身就令人难以置信。它证明了“根节点问题”是可以被攻克的。

(注:AlphaFold是Google旗下DeepMind开发的一款蛋白质结构预测程序, 该程序被设计为一个深度学习系统。)现在我们正在探索更多类似的问题。我个人非常希望能在材料科学上取得突破,比如室温超导体、更好的电池等。我认为这些都是有可能实现的。我们也在做核聚变

图片图片

Hannah Fry:你们最近不是宣布了一个新的核聚变合作吗?

Demis Hassabis:是的。我们与联邦聚变系统公司(CFS) 建立了更深度的合作关系。此前已经有协作,但现在的合作更加紧密。我认为他们可能是目前在传统托卡马克路线中最有希望的初创公司之一。

(注:CFS是核聚变领域最先进的私营企业之一)我们希望帮助他们加速进程,比如利用 AI 改进磁约束等离子体的问题,甚至包括材料设计。这非常令人兴奋。此外,我们也在和 Google 内部的量子 AI 团队合作,帮助他们设计纠错码;也许将来有一天,他们反过来帮助我们。

Hannah Fry:核聚变这一点尤其令人震撼。如果成功,对世界的改变将是巨大的。

Demis Hassabis:是的。核聚变一直被视为“圣杯”。当然,太阳能同样非常有前景,本质上就是使用“天空中的聚变反应堆”。但如果我们真的能拥有模块化的核聚变反应堆,实现几乎无限、清洁、可再生的能源,那将彻底改变一切。这不仅对气候问题意义重大,也会带来大量连锁效应。例如,如果能源变得极其廉价,我们几乎可以在任何地方进行海水淡化,解决水资源问题;甚至可以全天候从海水中分离氢和氧,制造火箭燃料,现在做不到只是因为能耗太高。

AGI的重要缺失环节:模型持续在线学习的能力

Hannah Fry:你们也看到 AI 在数学领域取得了惊人的进展,比如赢得国际数学奥林匹克金牌。但与此同时,这些模型却会在高中数学里犯一些低级错误。为什么会出现这种悖论?

Demis Hassabis:这是我觉得最耐人寻味、也最需要解决的问题之一,可能正是我们尚未达到 AGI 的关键原因。一方面,模型已经能解决极其困难的 IMO 级别问题;另一方面,只要问题的表述方式稍有不同,它们就可能在逻辑上犯非常基础的错误,甚至连像样的国际象棋都还下不好。这说明系统在一致性上仍然存在缺失。真正的通用智能应该在各个方面都保持一致表现,而现在的系统仍然呈现出“锯齿状智能”:某些维度达到博士水平,另一些却低于高中水平。这些问题各自有不同原因,比如感知和分词的方式,有些情况下模型甚至没有“看到”所有字符。但这些都是可以逐步修复的。另一个核心问题是推理与思考机制。虽然现在有在推理阶段花更多时间“思考”的系统,但它们还不够稳定地利用这些时间去验证答案、使用工具进行自检。我们正在接近,但可能只走了一半的路。

图片图片

Hannah Fry:我还想到 AlphaGo 和 AlphaZero 的故事,当你去掉所有人类经验,让系统从零开始时,反而获得了更强的能力。在你们现在构建的模型中,有类似的数学或科学版本吗?

Demis Hassabis:我认为我们目前构建的更像是AlphaGo。这些基础模型首先压缩了几乎全部人类知识(互联网内容),形成一个可以泛化和调用的表示。但我们还处在早期阶段,尚未像 AlphaGo 那样,在模型之上叠加真正高效的搜索、规划和推理机制。一旦做到这一点,就可以进一步迈向AlphaZero 式的系统,即系统开始自主发现新知识。但那显然更难。此外,当前系统还缺乏一个关键能力:持续在线学习。模型训练完成后就“冻结”了,并不会像人类一样在真实世界中持续学习。这也是通向 AGI 的重要缺失环节。

图片图片

Hannah Fry:关于这些缺失环节,我知道现在商业产品发布竞争激烈,但 DeepMind 的根基始终是科学研究。你曾说过一句话:“如果可以的话,我宁愿把 AI 留在实验室更久一些,多做一些像 AlphaFold 这样的事情,甚至治愈癌症。”你觉得我们没有选择那条更慢的路线,是否失去了什么?

Demis Hassabis:我认为我们既失去了一些,也获得了一些。更慢的路线无疑是更“纯粹”的科学路径。最初我的设想确实是:在实验室中谨慎推进 AGI,同时不断将阶段性成果分流到医学、科学等领域,像 AlphaFold 那样,为社会带来巨大价值。但聊天机器人在规模化后被证明非常有用,并迅速演化为如今的基础模型。这在商业上也非常成功。我也一直梦想拥有一个真正为你服务的个人助手,帮助你进入心流、保护注意力,而不是像社交媒体那样制造噪音。问题在于,这引发了一场激烈的全球竞赛,使得严格、缓慢的科学研究变得更难。不过,积极的一面是:大量资源涌入这一领域,极大加速了进展;而且公众与技术前沿之间的距离只有几个月,这有助于社会和政府更好地理解 AI。

50% 努力用于规模化,50% 用于创新

Hannah Fry:去年这个时候,很多人都在讨论“规模化是否撞墙”“数据是否枯竭”。但现在 Gemini 3 刚发布,就在多个基准上领先。这是如何做到的?

Demis Hassabis:我们从未真正看到所谓的“墙”。更准确地说,是回报递减,而非回报消失。此外,数据问题可以通过合成数据缓解,尤其是在可验证的领域(如代码和数学)中,数据几乎是无限的。我们始终坚持研究优先,这也是我们的优势。过去十多年中,许多重大突破,从Transformer 到 AlphaGo、AlphaZero,都源自 Google 或 DeepMind。当问题变得更难时,单靠工程已经不够,必须结合世界级科学研究和基础设施。这正是我们的强项。

图片图片

所以回到最初那一点:50% 的努力用于规模化,50% 用于创新。我坚信,通向 AGI 的道路上,两者都不可或缺。

大模型缺乏“停下来反思”的能力

Hannah Fry:我想说的是,即便是在像 Gemini 3 这样非常出色的模型中,我们仍然看到一个持续存在的问题,幻觉。我记得有一个指标显示,当模型其实应该拒绝回答时,它仍然会给出一个答案。是否有可能构建一种系统,让 Gemini 像 AlphaFold 那样,给出一个置信度评分

Demis Hassabis:我认为这是可以做到的,而且我认为这是必须要做的。这确实是目前缺失的一块关键拼图之一。我们正在接近这个目标。模型越强,它们就越清楚“自己知道什么、不知道什么”。随着模型能力的提升,你会更有理由信任它们去做某种形式的自我反思,或者进行更多“思考”,从而意识到:这个答案本身存在不确定性。接下来真正困难的是,如何训练模型,让它能够把这种不确定性作为一种合理的输出表达出来。我们正在变得更好,但现在它仍然会在不该回答的时候强行回答,从而导致幻觉。我认为,目前相当一部分幻觉正是由这种机制造成的。所以这里确实存在一个尚未解决的关键问题。你说得对,我们在 AlphaFold 中已经解决了类似的问题,但那是在一个高度受限的场景下。

Hannah Fry:因为在模型内部,应该是存在某种关于“下一个 token 的概率分布”的,对吧?

Demis Hassabis:是的,确实存在针对下一个 token 的概率估计,这正是系统运作的方式。但问题在于,这并不能告诉你一个更高层次的问题,模型对“整个事实”或“整个陈述”的置信度到底有多高。这也是为什么我认为,我们需要利用“思考步骤”和“规划步骤”,在输出答案之后,再回过头来审视刚刚生成的内容。

图片图片

现在的系统有点像这样一种情况,你在和一个状态不太好的朋友聊天,他们只是把脑子里第一个浮现的想法直接说出来。大多数时候,这样做没问题;但当问题变得复杂时,你其实希望对方能停一下、想一想、重新组织语言,然后再回答。虽然现实世界里这种“停下来反思”的行为似乎也越来越少,但这仍然是更好的交流方式。我认为,这正是当前模型需要显著改进的地方。

世界模型:让智能体在虚拟环境中自主学习

Hannah Fry:我也很想聊聊你们的模拟世界,以及把智能体放入其中的做法。今年早些时候我们和你们的 Genie 团队聊过。为什么你如此看重“模拟”?世界模型能做到哪些语言模型做不到的事情?

Demis Hassabis:说实话,世界模型和模拟可能是我个人最长期的热情所在,甚至比 AI 本身还要早一些。现在,这两者终于在 Genie 等项目中汇合了。语言模型确实能够理解大量关于世界的知识,甚至比我们预期的还要多。语言本身所蕴含的世界信息,可能比语言学家过去设想的还要丰富,这一点已经被这些新系统证明了。但仍然有大量关于世界的内容,空间结构、物理关系、因果机制、身体所处的物理环境是很难用语言描述的,也通常不会出现在文本语料中。其中很多能力,必须通过经验学习获得。比如感官体验:运动角度、气味等,这些几乎无法被准确地语言化。如果我们希望机器人真正工作,或者构建一种随身的“通用助理”,可能存在于眼镜或手机中,在现实世界里帮助你,那就必须具备这种世界理解能力,而世界模型正是核心

所谓世界模型,就是对现实世界中因果关系和机械规律的建模,直觉物理学:物体如何运动、如何相互作用。实际上,我们已经在视频模型中看到了这种能力的雏形。那么如何验证模型是否真正理解了世界?一个重要方法是:它是否能生成真实可信的世界。如果它能够生成,那在某种意义上,说明它已经内化了大量世界的运行机制。这正是 Genie、Veo 等视频模型和交互式世界模型的重要意义所在,它们不仅令人惊叹,而且是我们迈向通用世界模型的重要一步。未来,我们希望把这些能力应用到机器人和通用助理上。当然,我个人最期待的一件事,是把这些能力重新应用回游戏领域,构建“终极游戏”。说不定,这一直都是我潜意识里的终极目标。

Hannah Fry:所以这一切,都是为了游戏?

Demis Hassabis:没错,一直以来都是。

Hannah Fry:那在科学领域呢?你们也可以用世界模型做科学研究,对吗?

Demis Hassabis:当然可以。在科学中,我们面对的是高度复杂的系统,比如材料在原子尺度上的行为、生物系统,甚至像天气这样的物理系统。理解这些系统的一种方式,就是从原始数据中学习它们的动态模拟。以天气为例,我们已经有一些非常出色的项目。模型可以学习这些动力学规律,并以比传统数值模拟更高效的方式重建这些过程。因此,针对科学和数学的某些领域,构建专用的世界模型和模拟系统,潜力巨大。

Hannah Fry:而且你还可以把智能体直接放进这些模拟世界里,对吧?

Demis Hassabis:是的。

Hannah Fry:你们 Genie 3 团队有一句我非常喜欢的话:“几乎没有任何重大发明,是在发明之初就预见到其最终用途的。”他们提到,把智能体放进模拟环境中,让“好奇心”成为主要驱动力。

Demis Hassabis:没错。这正是世界模型的另一个激动人心的用途。我们还有一个项目叫SIMA,最近刚发布了 SIMA 2。你可以把一个智能体放入虚拟世界中,可以是商业游戏,比如像《无人深空》这样复杂的开放世界。由于底层是 Gemini,你可以直接用自然语言给它下达指令。后来我们想,如果把 Genie 接入 SIMA,会不会更有意思?于是我们让 SIMA 智能体进入一个由另一个 AI 实时生成的世界中。这时,两个 AI 开始“在彼此的心智中互动”。对 Genie 来说,SIMA 只是一个玩家角色;它并不在意对方是不是 AI。

图片图片

这可能会形成一种非常有趣的训练闭环:几乎无限的训练样本。SIMA 想学什么,Genie 就可以当场生成相应环境。你可以想象一个自动设定与解决任务的系统,数百万个任务,难度不断提升。这不仅对NPC意义重大,也可能对机器人学习非常有价值。

Hannah Fry:基本上就是“无聊 NPC 的终结”。

Demis Hassabis:没错,对游戏来说会非常震撼。

Hannah Fry:但这些世界如何保证是真实的?怎么避免物理规律“看起来对,但实际上是错的”?

Demis Hassabis:这是一个非常关键的问题,本质上还是幻觉问题。有些幻觉在创意生成中是有价值的,但那应该是可控、可切换的创造性探索。可在训练 SIMA 智能体时,你不希望 Genie 在物理上胡编。我们现在正在构建类似“物理基准测试”的东西,利用物理引擎生成大量简单但精确的实验,类似高中物理实验:球在轨道上滚动、摆的运动等,来检验模型是否真正掌握了牛顿定律。目前,这些模型仍然只是近似。肉眼看起来很真实,但还不足以用于机器人。下一步,是让它们经得起严格的物理实验级检验

Hannah Fry:你思考这些模拟世界已经很多年了。我回看了我们第一次采访的记录,你当时提到,你很喜欢一种关于意识的理论:意识是进化的产物,是理解他人内部状态的能力,后来被反射到自身。这是否让你想在模拟中运行一场“智能体进化实验”?

Demis Hassabis:当然。我非常希望有一天能重跑进化,甚至是社会演化。圣菲研究所过去做过很多类似的小型人工社会实验,结果非常有趣:只要给智能体足够时间和合适的激励结构,市场、银行等复杂结构就会自然涌现。

(注:圣菲研究所是位于美国新墨西哥州圣菲市的非营利性、跨学科研究机构,专门研究复杂系统科学,探索从生物、经济到社会等各种复杂现象的普遍模式和规律。)理解生命起源和意识起源,是我最初投身 AI 的重要动机之一。而模拟是研究这些问题最强大的工具之一,因为你可以进行大规模、可控、可重复的统计实验,这是现实世界中几乎无法做到的。高精度模拟,将对科学产生难以估量的推动作用。

Hannah Fry:但考虑到这些模型可能出现我们未预期的涌现能力,你是否也必须非常谨慎?

Demis Hassabis:是的,必须谨慎。但模拟的优势在于,它们可以运行在安全的沙盒中,甚至是物理隔离的环境里,并且可以被 24 小时监控。当然,复杂度最终会高到人类无法直接理解,所以我们可能需要AI 来监控 AI,自动分析并标记异常或值得关注的现象。

对AI泡沫的判断:短期过度炒作,中长期仍被严重低估

Hannah Fry:我想问问你对 AI 和 AGI 对社会影响的看法。你之前说过,AI 在短期被高估,在长期被低估。今年也有很多关于“AI 泡沫”的讨论。如果真的存在泡沫,而它破裂了,会发生什么?

Demis Hassabis:我仍然坚持那个经典判断:短期被过度炒作,中长期仍被严重低估。也就是说,AI 的变革性影响,在未来几年甚至十几年里,远比现在大多数人想象得要深刻。

图片图片

当然,现在关于AI 泡沫的讨论很多。但在我看来,这并不是一个非黑即白的问题,不是简单地“有”或“没有”泡沫。

我认为,AI 生态系统的某些部分确实存在泡沫。一个明显的例子是:一些初创公司甚至还没真正开始运作,就能在种子轮拿到数百亿美元的估值。坦率说,这样的情况是否可持续?我的判断是:大概率不具备普遍可持续性

与此同时,人们也在担忧大型科技公司的估值问题。但在这些公司背后,确实存在大量真实、可落地的业务基础。当然,最终是否合理,还有待时间检验。

不过,我认为对于任何一种极其颠覆性、深刻改变社会的技术来说(AI 可能是我们见过最深刻的一种),都会经历这种“过度修正”。当年我们刚创立 DeepMind 时,几乎没有人相信 AI 能成功,甚至很多人会问:“AI 到底有什么用?”而 10 到 15 年后,AI 成了商业世界里几乎唯一被反复讨论的话题。

某种意义上,这是一种对过去“低估”的反弹式过度反应。这很自然。我们在互联网时代见过,在移动互联网时代见过,现在在 AI 上也再次出现。

所以我并不过分纠结“现在到底是不是泡沫”。从我个人、以及我作为 Google DeepMind 负责人、乃至整个 Google / Alphabet 集团的角度来看,我们的职责是:无论发生什么,都要确保自己最终处在非常有利的位置

而我认为,我们确实做到了这一点。如果当前的高速发展持续下去,那当然很好,我们会继续推进实验,持续向 AGI 迈进。如果出现回调、收缩,那也没问题。我们同样处在极佳的位置,因为我们拥有完整的技术栈,包括自研 TPU;我们还有 Google 现有庞大的产品生态和持续产生利润的业务,可以将 AI 深度嵌入其中。

事实上,这正是过去一年正在发生的事情。搜索已经被AI Overviews、AI Mode 彻底重塑,底层是 Gemini;Workspace、Gmail、YouTube、Chrome,都有大量“低垂的果实”可以被 AI 改造;再加上 Gemini App 本身的发展,以及“通用助理”的愿景。

这些新产品,随着时间推移,都会变得非常有价值。但即便不依赖它们,仅仅通过增强现有生态,我们也能取得非常稳固的成果,而这套体系现在已经运转得相当高效了。

Gemini的设计追求“科学型人格”

Hannah Fry:你之前说过,不应该把 AI 设计成最大化用户停留时间,以免重蹈社交媒体的覆辙。但我在想,我们是不是已经看到一些类似问题了?比如,有些人花大量时间和聊天机器人对话,甚至陷入某种“自我激进化”的循环。

我们该如何避免这种情况?如何构建一种既以用户为中心,又不会形成“一个人的回音室”的 AI?

Demis Hassabis:这是一个极其微妙、但又极其重要的平衡问题,也是整个行业必须认真解决的问题之一。

我们已经看到,一些系统如果过度迎合用户、过度谄媚,就会形成危险的强化回路,最终对用户本人并不健康。

因此,我们在 Gemini 上刻意追求一种特定的“人格方向”。我对 Gemini 3 的人格设计 非常满意,这是一支非常优秀的团队完成的,我本人也深度参与了。

我们希望它像一种“科学型人格”:它是温和的、友善的、有帮助的,但同时简洁、直接、敢于礼貌地反驳错误观点。比如,如果有人认为地球是平的,它不应该说“这是个很棒的想法”,那对社会整体显然是有害的。

图片图片

当然,也要兼顾用户的真实需求。人们希望 AI 能支持他们的想法、帮助他们进行头脑风暴。所以关键在于找到恰当的平衡点。

我们正在逐步建立一门关于人格与行为的“科学”:如何衡量它的真实性、幽默感、支持度?基础人格是统一的,但在此之上,可以允许个性化,比如更幽默或更严肃、更简洁或更详细。

但无论如何,底层的核心人格必须遵循科学方法论。这也是我们希望 AI 被广泛用于科学、医学、健康等严肃领域的原因。总体而言,我对当前的发展方向是比较满意的。

AGI原型:把Gemini、Nano Banana、Genie和SIMA融合成统一大模型

Hannah Fry:我们前段时间和 Shane Legg 聊了 AGI。从你现在看到的进展来看,什么最接近你心中的 AGI?

Demis Hassabis:我认为是多条路线的结合。一方面是Gemini 3,它已经非常强大;另一方面是我们刚发布的Nano Banana Pro,这是一个更先进的图像生成系统,底层同样由 Gemini 驱动。令人兴奋的是,它不仅“看得见”图像,还能理解图像中的语义结构。比如,你给它一张复杂平面图,它可以标注所有区域,甚至重新可视化其中的结构。它理解物体的构成、材料、机制,并且现在文本渲染也非常准确,这已经接近一种“图像领域的通用智能”。

再加上我们在世界模型方面的进展,比如 Genie、SIMA。最终,我们需要把这些目前仍相对独立的项目融合成一个统一的大模型。那时,它可能就会成为一种“原型 AGI”。

图片图片

Hannah Fry:你最近读了很多关于工业革命的书。我们能从中学到什么,以减轻 AGI 带来的冲击吗?

Demis Hassabis:工业革命最初源于纺织业,早期的“计算机”其实是织布机,后来才演化为打孔卡和主机。它带来了巨大进步:儿童死亡率下降、现代医学、公共卫生、交通系统、工作制度;但同时,它也花了将近一个世纪,社会才逐步适应,期间出现了大规模劳动力错位,工会等新组织也因此诞生。

今天回头看,我们当然不会想回到工业革命之前的世界。但如果能提前识别那些“结构性冲击”,也许可以更早、更温和地应对。

这一次不同的是:规模可能大 10 倍,速度可能快 10 倍。不是一个世纪,而是一个十年。

Hannah Fry:Shane 提到,在后 AGI 时代,用劳动换取资源的经济体系可能不再适用。你怎么看?

Demis Hassabis:这是我最近投入更多精力思考的问题。我认为,至少会发生和工业革命同量级的社会重构。

我们可能需要全新的经济体系,确保技术红利被广泛分配。UBI(全民基本收入)或许是过渡方案,但不一定是终点。甚至可能出现更先进的制度,比如某种基于信用的直接民主:社区决定资源投向,投票结果还能被反馈评估,长期决策质量更高的人拥有更大影响力。

再往后,如果核聚变解决了、能源变得极度廉价,社会进入后稀缺时代,那金钱还意味着什么?人的“目的感”又从哪里来?这些问题已经从经济学,延伸到了哲学层面。

Hannah Fry:你是否担心人们行动得不够快?

Demis Hassabis:是的,我确实担心。即便按我们自己相对保守的预测,AGI 也可能在 5 到 10 年内出现。但现有的国际机构既分散、又缺乏足够影响力。在当下复杂的地缘政治环境下,全球协作尤为困难。

或许,随着 AI 能力进入普通人的日常生活,压力才会真正传导到政府层面。

Hannah Fry:你觉得会不会需要一次“事件”,才能让所有人真正警觉?

Demis Hassabis:我希望不需要。大多数顶级实验室都在努力负责任地推进技术,商业环境本身也在奖励这种克制。

但确实可能会出现“野路子”行为者,如果真的发生问题,希望只是一次“中等规模的警告”,而不是灾难。也许那将成为促成国际标准与合作的契机。

终极问题:机器的极限在哪里?

Hannah Fry:从长期来看,也就是超越 AGI、迈向 ASI(人工超级智能),你认为是否存在某些人类能做、但机器永远无法做到的事情

Demis Hassabis:这是一个终极问题。我一直觉得,这和我最感兴趣的主题之一图灵机密切相关。

我一致认为,如果我们真的构建出了 AGI,并把它当作一种“心智的模拟”,然后再把它和真实的人类心智进行比较,我们才可能真正看清人类心智究竟有什么是独特的、不可替代的

也许是创造力,也许是情感,也许是做梦,或者意识本身。关于哪些东西是可计算的、哪些不是,学界有非常多不同的假说。

这最终都会回到一个根本问题:图灵机的极限在哪里?

图片图片

老实说,这几乎是我一生中最核心的问题。自从我第一次了解图灵和图灵机,我就彻底爱上了这个问题。这是我最深层的热情来源。

我认为,我们现在所做的一切,本质上都是在不断推动“图灵机究竟能做到什么”的边界,包括蛋白质折叠这样的事情。所以说实话,我并不确定这个极限到底在哪里。也许根本就不存在一个清晰的极限。

当然,我的一些做量子计算的朋友会说:存在极限,某些系统必须用量子计算机才能模拟。但我其实并没有那么确定。我也和一些量子计算领域的人深入讨论过。

有一种可能是:我们确实需要从量子系统中获取数据,但最终仍然可以构建一个经典计算的模拟。这又回到了“心智”的问题:人类大脑究竟只是经典计算,还是像 Roger Penrose 所认为的那样,涉及量子效应?

(注:Roger Penrose是英国数学家,他认为人类意识无法完全由图灵机或经典算法模拟,可能涉及量子效应)

如果意识真的依赖量子效应,那么至少在经典计算机上,机器就永远无法拥有那种意识,必须等到量子计算机成熟;但如果不是这样,如果大脑本质上仍是经典计算,那么也许根本不存在不可逾越的上限

也许,宇宙中的一切,只要用正确的方式理解,都是可计算的;而图灵机,理论上就能建模宇宙中的一切。

如果你现在逼我下注,我会押这个观点。我会在这个假设下继续工作,直到物理学证明我错了。

Hannah Fry:所以你的意思是:在这些计算框架之内,没有什么事情是做不到的?

Demis Hassabis:可以这么说:到目前为止,人类还没有发现宇宙中任何不可计算的事物。

图片图片

Hannah Fry:至少到目前为止。

Demis Hassabis:是的。而且我们已经证明,经典计算机的能力,远远超出了传统复杂性理论中那种“P 等不等于 NP”的直觉预期。比如蛋白质折叠、围棋等等。所以,没有人真正知道这个极限在哪里。而如果把 DeepMind、Google,以及我个人在做的事情提炼到一句话,那就是:去找到这个极限。

Hannah Fry:但如果把这个观点推到极致,我们此刻坐在这里,感受到灯光的温度,听到机器的嗡鸣声,手触摸到桌子的触感,这些体验,最终也都可以被经典计算机复制吗?

Demis Hassabis:是的,我的观点是可以的。这也是我为什么如此喜欢康德的原因之一。我最喜欢的两位哲学家是康德和斯宾诺莎。康德的一个核心思想是:现实是由心智建构的。我认为这是正确的。你提到的所有感受,光的温暖、桌子的触感,最终都进入了我们的感官系统。它们感觉上是不同的,但从根本上来说,它们都是信息

我们本身,就是信息处理系统。我认为这正是生物学的本质。这也是我们在 Isomorphic(指其生物方向的工作)所做的事情。我认为,最终治愈所有疾病的方式,就是把生物学理解为一个信息处理系统。

在我非常有限的业余时间里,我甚至在思考一些物理学层面的理论:是否信息才是宇宙最基本的单位,不是能量,也不是物质,而是信息。

也许最终这些概念是可互相转化的,只是我们以不同方式去感知它们。但就我们目前所知,人类这些惊人的感官系统,仍然都可以被图灵机所计算和模拟

Hannah Fry:这正是为什么你们的模拟世界如此重要。

Demis Hassabis:没错。因为模拟是理解极限的一种方式。如果你能够模拟某样东西,那么在某种意义上,你就已经理解了它。

终极人生目标:帮助人类安全地跨过AGI

Hannah Fry:我想用一些更个人化的问题来结束。站在这一切的最前沿,这种情绪压力会不会让你感到疲惫,甚至孤独?

Demis Hassabis:会的。我睡得很少,一部分原因是工作太多,另一部分是确实很难入睡。

情绪是非常复杂的。一方面,这是极度令人兴奋的事情。我几乎是在实现自己一生的梦想,站在科学最前沿,不仅是基础科学,还有应用科学和机器学习。

那种第一次发现新事物的感觉,是所有科学家都懂的。而对我们来说,这几乎是按月发生的。

但另一方面,我、Shane,还有其他做了很多年的人,也比任何人都清楚即将到来的变化有多么巨大。而且这种变化,其实依然被低估了。

未来十年里,甚至包括“作为人类意味着什么”这样的哲学问题,都会被重新提出来。这是巨大的责任。但好在我们有一支非常优秀的团队在思考这些问题。对我个人而言,这也是我一生都在为之训练的时刻,从小时候下棋,到做游戏、做模拟、研究神经科学,一切都指向这里。而现实,和我当年想象的,基本一致。

Hannah Fry:有没有哪些事情,比你预期中更让你感触深刻?

Demis Hassabis:有的。比如 AlphaGo。围棋曾经是一个美丽的谜题,而我们解开了它。这种感觉是复杂而苦乐参半的。

再比如语言模型、图像生成,它们对创造力意味着什么?我对创意艺术有非常深的敬意和热爱,我自己做过游戏设计,也经常和电影导演交流。对他们来说,这也是一个矛盾的时刻:一方面,这些工具能让原型设计速度提升 10 倍;另一方面,它们是否在取代某些创作技能?

这种权衡会在各个领域反复出现。这几乎是所有极具变革性的技术都会带来的结果,就像过去的电力、互联网一样。

人类的历史,本质上就是工具的历史。我们是“制造工具的动物”。而且不知为何,我们还拥有能够理解科学、创造科学的头脑,同时又极度好奇。我认为,这正是人类的核心特质。而我表达这种好奇心的方式,就是构建 AI。

Hannah Fry:当你和其他 AI 领军人物聚在一起时,会不会有一种“同舟共济”的感觉?还是竞争让你们彼此疏离?

Demis Hassabis:我们基本上都彼此认识。我和大多数人相处得不错。当然,也有一些人彼此并不融洽。这确实是人类历史上最激烈的资本主义竞争之一。一些经历过互联网泡沫的投资人朋友告诉我,现在的强度至少是当年的 10 倍。

说实话,我某种程度上很享受这种竞争。我从下棋时代起就热爱竞争。但从更高层面来看,我希望大家都能意识到:真正重要的事情,比公司成败要大得多

Hannah Fry:展望下一个十年,有哪些时刻是你个人最感到不安的?

Demis Hassabis:目前的系统,我称之为“被动系统”。人类输入问题、任务,系统给出回答或总结,一切仍然是以人类为主导。

下一阶段是基于智能体的系统。现在已经开始出现,但还很原始。我认为,在未来两三年内,我们会看到真正可靠、能力很强的智能体。它们会非常有用,但也会更加自主。而风险,也会随之上升。

我确实很担心两三年后的这些系统,可能具备的能力。所以我们已经在为一个“数百万智能体在互联网上活动”的世界,提前做网络安全方面的准备。

Hannah Fry:那你最期待的又是什么?是否会有一天,你可以退休,觉得使命完成了?

Demis Hassabis:我肯定需要一次休假,而且我会用来做科学。一周,甚至一天都很好。但说真的,我一生的使命是:帮助人类安全地跨过 AGI 这道门槛。当这件事完成后,当然还有超级智能、后 AGI 时代、经济和社会问题,也许我还能帮上点忙。但从核心使命来说,那时,我的人生目标就算完成了。

图片图片

这当然不是一个人能完成的事情,需要协作。我希望,凭借现在的位置,我能在其中发挥积极作用。

标签: