The AI Revolution Is Underhyped-Eric Schmidt
# **AI 革命被低估了 | Eric Schmidt | TED** ## **引言:2016 年的悄然转变与 AI 的低估** **Bilawal Sidhu (BS)**:Eric Schmidt,感谢您加入我们。让我们回到过去。您说**非人类智能(non-human intellige...
Category: GoogleBilawal Sidhu (BS):Eric Schmidt,感谢您加入我们。让我们回到过去。您说非人类智能(non-human intelligence)的到来是一件非常重大的事情。这张拍摄于 2016 年的照片,感觉就像是大地在我们脚下悄然转变,但不是所有人都注意到了的时刻。您当时看到了什么,而我们其他人可能错过了?
Eric Schmidt (ES):在 2016 年,我们不明白现在将要发生什么,但我们理解这些算法(algorithms)是新的且强大的。在这组特定的游戏中发生的事情是:在大约第二局中,AI 在一个存在了 2,500 年的棋类游戏中发明了一个人类从未见过的新招。从技术上讲,这种情况的发生方式是,AlphaGo 系统的组织方式本质上是始终保持大于 50% 的胜率。因此,它正确地计算出了这一招,这在所有围棋玩家中是一个巨大的谜团;他们显然是极其聪明、数学和直觉兼备的玩家。
亨利(Henry)、克雷格·芒迪(Craig Mundie)和我开始讨论的问题是:这意味着什么?我们的计算机如何能够想出人类从未想到的东西? 我的意思是,这是一个数十亿人玩过的游戏。这开始了导致两本书出版的过程。坦率地说,我认为革命真正开始就是从那个时候。
BS:如果您快进到今天,似乎每个人都在谈论 AI,尤其是在 TED 这里。但您采取了一种逆向立场(contrarian stance)。您实际上认为 AI 被低估了(underhyped)。为什么?
ES:我来告诉您为什么。
ES:你们大多数人认为 AI 就是——我只使用通用术语——ChatGPT。对于你们大多数人来说,ChatGPT 是那一刻,您说:“我的天啊,这东西会写作,它会犯错,但它的口头表达能力真是太出色了”。这当然是我的反应。我认识的大多数人都是这样。
BS:那是一种发自内心的感觉,是的。
ES:这是两年前的事了。从那时起,在被称为强化学习(reinforcement learning)(AlphaGo 帮助发明了它等等)的领域中,所取得的进步允许我们进行规划(planning)。一个很好的例子是看看 OpenAI o3 或 DeepSeek R1,您可以看到它是如何向前、向后、向前、向后、向前、向后进行的。这是非凡的。
就我个人而言,我买了一家火箭公司,因为它很有趣。
BS:(笑)人们都会这样做。
ES:人们都会这样做。这是一个我不熟悉的领域,而我希望成为专家。所以我正在使用深度研究。这些系统正在花费 15 分钟来撰写这些深度论文。对于它们大多数来说,情况就是如此。您知道这些超级计算机 15 分钟的计算量有多大吗?这是非凡的。
ES:所以您看到了一种转变的到来,从语言到语言。然后是语言到序列(sequence),这是生物学的完成方式。现在您正在做的本质上是规划和策略。这种最终状态是计算机将运行所有业务流程。所以您有一个代理(agent)来做这件事,一个代理来做那件事,一个代理来做另一件事。然后您将它们串联(concatenate)在一起,它们彼此之间说语言。它们通常说英语语言。
BS:我的意思是,仅仅谈论这些系统纯粹的计算需求,让我们简要谈谈规模。你知道,我有点把这些 AI 系统看作是饥饿的河马(Hungry Hungry Hippos)。它们似乎吸收了我们扔给它们的所有数据和计算。它们已经消化了公共互联网上的所有 tokens,而且似乎我们建造数据中心的速度不够快。您认为真正的限制是什么,以及在我们开始扼制(throttling)AI 进步之前,我们如何才能超越这些限制?
ES:所以,能源(energy)是一个真正的限制。给您举个例子。有一项计算,我本周在国会就此作证,即我们在美国需要另外 90 吉瓦(gigawatts)的电力。顺便说一句,我的回答是,想想加拿大,好人,充满了水力发电。但这显然不是现在的政治氛围。抱歉。
所以 90 吉瓦是美国 90 座核电站。不会发生。我们正在建造零座。我们将如何获得所有这些电力? 这是一个重大的、重大的国家问题。您可以使用阿拉伯世界,他们正忙着建造 5 到 10 吉瓦的数据中心。印度正在考虑建造一个 10 吉瓦的数据中心。
要了解吉瓦有多大,请将其视为每数据中心对应一座城市。这就是这些东西需要的电量。
人们看到它说:“好吧,有很多算法改进(algorithmic improvements),您将需要更少的电力”。有一条老规则,我够老了,还记得:格鲁夫给出,盖茨拿走(Grove giveth, Gates taketh away)。硬件只会越来越快。物理学家令人惊叹。他们能够做到的真是不可思议。而我们这些软件人员,我们只是使用它、使用它、使用它。当您查看规划(planning)时,至少在今天的算法中,它是来回往复、尝试这个和那个,您可以自己观察。
有估计,您从 Andreessen Horowitz 报告中知道这一点,它经过了很好的研究,即仅仅进行这种规划所需的计算量至少增加了 100 倍,也许增加了 1,000 倍。这项技术从本质上的深度学习(deep learning)转向强化学习(reinforcement learning),再转向一种叫做 测试时计算(test-time compute)的东西,在那里,您不仅在进行规划,而且在进行规划时也在学习(learning while you're doing planning)。
ES:那就是计算需求的顶峰(zenith)。那是问题一:电力和硬件。问题二是我们用完了数据,所以我们必须开始生成它。但我们可以轻松做到这一点,因为这是其中一个功能。然后第三个问题是我不理解的:知识的极限是什么?
ES:我给您举个例子。让我们想象我们集体是世界上所有的计算机,我们都在思考,我们所有的思考都基于存在的、以前发明的知识。我们如何发明一些全新的东西? 比如爱因斯坦(Einstein)。
当您研究科学发现的工作方式时,无论是生物学、数学等等,通常发生的情况是,一个真正聪明的人看着一个领域,然后说:“我看到了一个完全不同的领域中存在的模式,它与第一个领域毫无关系。它是相同的模式”。他们从一个领域中获取工具,然后将其应用到另一个领域。
今天,我们的系统无法做到这一点。如果我们能突破这一点——我正在研究这个问题——一个通用的技术术语是目标非平稳性(non-stationarity of objectives)。规则不断变化。
我们将看看我们是否能解决这个问题。如果我们能解决这个问题,我们将需要更多的数据中心。而且我们也能够发明全新的科学和思想流派,这将是不可思议的。
BS:所以,在我们推向顶峰(zenith)的过程中,自主性(autonomy)一直是一个热门话题。Yoshua Bengio 本周早些时候做了一次引人注目的演讲,主张 AI 实验室应该停止开发能够采取自主行动的 AI 代理系统(agentic AI systems)。然而,这正是所有这些 AI 实验室的下一个前沿(next frontier),对您来说似乎也是如此。正确的决定是什么?
ES:Yoshua 是我们正在谈论的许多东西的杰出发明家,也是一位很好的私人朋友。我们讨论过这个问题,他的担忧是非常合理的。问题不是他的担忧是否正确,而是解决方案是什么?
让我们想想代理(agents)。为了方便讨论,观众中的每个人都是一个代理。您有一个输入是英语或任何语言。您有一个输出是英语,您有记忆(memory),这对于所有人类来说都是如此。现在我们都在忙着工作,突然间,你们中的一个人决定不使用人类语言会更高效,而是发明我们自己的计算机语言。
现在您和我坐在这里,看着这一切,我们在说,我们现在该怎么办? 正确的答案是拔掉您的插头。因为我们不会知道,我们就是不知道您在做什么。而您可能实际上正在做非常坏的事情或非常了不起的事情。
ES:我们希望能够观看。所以我们需要来源(provenance),这是您和我讨论过的,但我们也需要能够观察它。对我来说,这是一个核心要求。
ES:有一套行业认为在某些时刻需要象征性地拔掉插头的标准(criteria)。其中之一是出现递归式自我改进(recursive self-improvement),这是您无法控制的。递归式自我改进是计算机在自行学习,而您不知道它在学什么。这显然可能导致糟糕的后果。另一个将是直接接触武器(direct access to weapons)。另一个是计算机系统决定自行渗出(exfiltrate themselves),未经我们的许可自我复制(reproduce themselves without our permission)。所以有一系列这样的事情。
ES:Yoshua 演讲的问题在于,恕我直言,对于这样一位杰出人物来说,在全球竞争市场中阻止事情并不奏效。我们不能停止代理工作,而是需要找到一种方法来建立护栏(establish the guardrails),我知道您同意这一点,因为我们讨论过。
BS:我认为这很好地引出了困境(dilemmas)。当我们谈到这项技术时,有很多困境。我想从第一个开始,Eric,那就是这项技术极端的两用性质(exceedingly dual-use nature),它既适用于民用也适用于军事应用。您如何从宏观上思考这些技术带来的困境和伦理难题(ethical quandaries),以及人类如何部署它们?
ES:在许多情况下,我们已经有了关于个人责任(personal responsibility)的学说。一个简单的例子,我做了很多军事工作,并且会继续这样做。美国军方有一个规则叫做 3000.09,通常被称为 “人在回路”(human in the loop)或 “有意义的人类控制”(meaningful human control)。您不希望系统不受我们的控制。这是我们不能跨越的底线。我认为这是正确的。
ES:我认为西方,特别是美国,与中国之间的竞争将在这个领域起到决定性作用(defining)。我给您举一些例子。首先,现任政府现在已经设置了本质上是往复的 145% 关税。这对供应链有巨大的影响。我们这个行业依赖于来自中国的封装(packaging)和组件(components),它们可能很无聊,但极其重要。那些构成计算机一部分的小包装和小胶水之类的东西。如果中国拒绝提供访问权限,那将是一个大问题。
我们正试图拒绝他们获取最先进的芯片,他们对此非常恼火。基辛格博士(Dr. Kissinger)曾要求克雷格(Craig)和我与中国人进行第二轨道对话(Track II dialogues),我们正在与他们进行对话。他们提出的头号问题是什么?就是这个问题。
ES:事实上,如果您看看 DeepSeek,它确实令人印象深刻,他们设法找到了绕过问题的算法,通过让它们更高效。因为中国正在做一切开源(open source)、开放权重(open weights)的工作,我们立即获得了他们发明的好处,并已将其应用于美国的东西。
所以我们现在处于一个我认为相当脆弱(tenuous)的境地,美国在很大程度上驱动着——出于许多许多很好的理由——大多是封闭模型(closed models),大多处于非常好的控制之下。而中国可能会成为开源领域的领导者,除非情况发生变化。而开源会导致能力在世界范围内非常快速地扩散(rapid proliferation)。
ES:这种扩散在网络层面和生物层面都是危险的。但让我告诉您为什么它在更重要的方面,在核威胁(nuclear-threat)方面,也是危险的。
我们都密切合作过的基辛格博士,是相互保证毁灭(mutually assured destruction)、威慑(deterrence)等的建筑师之一。现在发生的情况是,您面临着一个局面——我举个例子。如果我解释起来会更容易。您是好人,我是坏人。您领先我六个月,我们都在通往超级智能(superintelligence)的同一条道路上。而您将要到达那里。而且我确定您将要到达那里,您就差那么一点。而我落后六个月。听起来不错,对吧?听起来很不错。不。
ES:这些是网络效应(network-effect)业务。在网络效应业务中,您的改进斜率(slope of your improvement)决定了一切。
我以 OpenAI 或 Gemini 为例,它们有 1,000 名程序员。他们正在创建一百万个 AI 软件程序员。这会带来什么?
首先,您不必给他们喂食,除了电力。所以这很好。而且他们不会辞职之类的。其次,斜率就像这样(手势)。好吧,随着我们越来越接近超级智能,斜率会像这样(手势)。
如果您先到达那里,您这个卑鄙的人——
BS:您将永远无法追上我。
ES:我将无法追上您。而我给了您重塑世界的工具,特别是摧毁我。我的邪恶大脑先生就是这么想的。
那么我该怎么办? 我要做的第一件事是尝试窃取您所有的代码。而您已经阻止了这一点,因为您是好人。而且您以前是好人。所以您仍然是好人,在谷歌。其次,我要用人类渗透您。好吧,您对此有很好的保护。你知道,我们没有间谍。
ES:那我该怎么办? 我会进去并更改您的模型。我会修改它。我实际上会搞砸您,让我比您领先一天。而您太好了,我做不到。我的下一个选择是什么?轰炸您的数据中心。
现在您认为我疯了吗? 这些对话今天正在我们的世界中围绕核对手发生。有合法的人说,解决这个问题的唯一办法是先发制人(preemption)。
ES:现在我告诉您,您这个好人,即将拥有控制整个世界的钥匙,无论是在经济主导地位、创新、监控,还是您关心的任何方面。我必须阻止这一切。我们的社会没有任何语言,外交政策人员没有考虑过这个问题,而这个问题即将到来。它什么时候到来?可能五年。我们有时间。我们有时间进行这场对话。而这真的非常重要。
BS:让我对此提出一点挑战。所以如果这是真的,我们最终可能会陷入这种僵局(standoff)情景,以及相互保证毁灭的等价物,您也说过美国应该拥抱开源 AI,即使在中国 DeepSeek 以一小部分计算能力展示了可能性之后。但是,开源这些模型难道不会将能力拱手让给对手,从而加速他们自己的时间线吗?
ES:这是最邪恶的(wickedest),或者我们称之为极其困难的问题(wicked hard problems)之一。我们的行业、我们的科学,我们所建立的关于世界的一切都基于学术研究(academic research)、开源等等。谷歌的大部分技术都基于开源。谷歌的一些技术是开源的,有些是专有的(proprietary),这完全合法。
当出现一个真正危险的开源模型时会发生什么,它落入本·拉登们(Osama bin Ladens)的手中,而且不幸的是,我们知道不止一个。我们不知道。目前业界的共识是,开源模型尚未达到国家或全球危险的程度。但您可以看到它们可能达到这种程度的模式。
ES:所以,现在很多事情将取决于美国和中国以及两地的公司所做的关键决定。我之所以关注美国和中国,是因为它们是唯一两个有人疯狂到愿意花费数十亿数十亿美元来构建这个新愿景的国家。
欧洲很想这样做,但没有资本结构来做。大多数其他国家,甚至印度,尽管他们希望,也没有资本结构来做。阿拉伯人没有资本结构来做,尽管他们正在努力。所以这场斗争、这场战斗将是决定性的战斗。
我担心这场战斗。基辛格博士谈到与中国发生战争的可能途径是意外。他研究过第一次世界大战。当然,它始于一个小事件,并在那个夏天(我认为是 1914 年)升级。然后就是这场可怕的全球大火(horrific conflagration)。您可以想象一系列沿着我所说的方向的步骤,可能导致我们走向可怕的全球后果。这就是为什么我们必须关注。
BS:在转向梦想之前,我想谈谈这里的一个反复出现的矛盾,那就是要大规模地节制(moderate)这些 AI 系统,在 AI 安全中存在一种奇怪的矛盾,即防止“1984”的解决方案听起来往往非常像“1984”。所以人证(proof of personhood)是一个热门话题。大规模节制这些系统是一个热门话题。您如何看待这种权衡?在试图防止反乌托邦(dystopia),比方说防止非国家行为者以不良方式使用这些模型的过程中,我们可能会意外地建立终极的监控国家(ultimate surveillance state)。
ES:非常重要的是,我们必须坚持我们社会中的价值观。我非常非常致力于个人自由。一个善意的工程师很容易构建一个被优化且限制您自由的系统。因此,在其中保留人类自由非常重要。
很多问题不是技术问题。它们真的是商业决定。建立一个监控国家当然是可能的,但建立一个解放(freeing)的系统也是可能的。
您所描述的难题是因为现在基于错误信息(misinformation)进行操作变得如此容易——每个人都知道我在说什么——您确实需要身份证明(proof of identity)。但身份证明不必包含细节。
ES:例如,您可以拥有一个加密证明(cryptographic proof),证明您是人类,而且它实际上可以是真实的,不包含任何其他信息,并且还可以使用各种加密技术(cryptographic techniques)使其无法链接到其他人。
BS:所以是零知识证明(zero-knowledge proofs)和其他技术。
ES:零知识证明是最明显的一种。
BS:好吧,我们换个话题,好吗,谈谈梦想。在您的著作《创世纪》("Genesis")中,您采取了谨慎乐观的基调(cautiously optimistic tone),您显然是与亨利·基辛格(Henry Kissinger)合著的。当您展望未来时,我们都应该对什么感到兴奋?
ES:好吧,我已经到了这个年纪,我的一些朋友正在患上可怕的疾病(dread diseases)。我们现在能解决这个问题吗? 我们能消除所有这些疾病吗? 为什么我们不能现在就接受这些,并根除所有这些疾病? 这是一个相当不错的目标。
我知道有一个非营利组织正试图在未来两年内识别所有人类的成药靶点(druggable targets),并将其发布给科学家。如果您知道成药靶点,那么制药行业就可以开始研究。我还有一家与之相关的公司,据称(它是一家初创公司)已经找到了一种方法,可以将三期临床试验(stage-3 trials)的成本降低一个数量级。如您所知,这些是最终推动药物成本结构的东西。这是一个例子。
ES:我想知道暗能量(dark energy)在哪里,我想找到它。我确信暗能量、暗物质中蕴含着巨大的物理学。想想材料科学的革命。无限更强大的交通,无限更强大的科学等等。
ES:我再举一个例子。为什么我们不能让地球上的每个人都拥有自己的、用自己的语言提供帮助的导师(tutor),帮助他们学习新东西? 从幼儿园开始。这是显而易见的。我们为什么没有建造它? 答案,唯一可能的答案是缺乏良好的经济论证。技术是可行的。用他们的语言教学,将学习游戏化(gamify),让人们发挥出他们最佳的自然潜能。
另一个例子。世界上绝大多数的医疗保健要么缺失,要么由同等的执业护士(nurse practitioners)和非常、非常紧张的当地乡村医生提供。为什么他们没有医生助理(doctor assistant),用他们的语言帮助他们,再次以完美的医疗保健(perfect healthcare)治疗任何疾病? 我可以继续说下去。
ES:数字世界存在着大量的问题。感觉我们都像在海洋中的各自船只里,彼此之间不交谈。在我们对连接(connectivity)和联系(connection)的渴望中,这些工具让我们更孤独。我们必须解决这个问题。但这些都是可修复的问题。它们不需要新的物理学。它们不需要新的发现,我们只需要做出决定。
所以当我看着这个未来时,我想明确一点:这种智能的到来,无论是在 AI 层面,还是在 AGI(通用智能)层面,以及随后的超级智能(superintelligence)层面,是大约 500 年内将要发生的最重要的事情,也许是人类社会 1,000 年内将要发生的最重要的事情。而它正在我们的有生之年发生。所以不要搞砸它。
BS:我们假设我们不会。
(掌声)
BS:我们假设我们没有搞砸它。我们假设我们进入了这个彻底的富足(radical abundance)世界。我们假设我们最终到达了这个地方,我们达到了递归式自我改进的那个点。AI 系统承担了绝大多数具有经济生产力的任务。在您看来,人类在这个未来中会做什么? 我们都会在海滩上喝着皮娜可拉达(piña coladas),从事爱好吗?
ES:你这个科技自由主义者(tech liberal)。你一定赞成 UBI(全民基本收入)。
BS:不,不,不。
ES:听着,在这一令人难以置信的发现中,人类没有改变。您真的认为我们会摆脱律师吗? 不,他们只会进行更复杂的诉讼。您真的认为我们会摆脱政客吗? 不,他们只会拥有更多的平台来误导您。抱歉。
我的意思是,我可以继续说下去。关于这种新经济学,需要理解的关键是,我们作为一个社会集体,人类不够多。看看亚洲的生育率,对于两个父母来说,基本上是 1.0。这不好。
ES:因此,在我们余生中,关键问题将是让有生产力的人,即处于他们生产期的人,更有生产力,以支持像我这样的老年人,而我们这些老年人会抱怨说我们想要更多年轻人的东西。这就是它的运作方式。
这些工具将从根本上增加这种生产力。有一项研究说,在围绕代理 AI(agentic AI)和发现以及我所描述的规模的这套假设下,有很多假设,您最终将获得每年大约 30% 的生产力增长。
在与一群经济学家交谈之后,他们没有模型来解释这种增长是什么样子的。我们从未见过。它没有出现在我们历史上的任何民主或王国的崛起中。即将发生的事情是令人难以置信的。希望我们会朝着正确的方向发展。
BS:这确实是令人难以置信的。Eric,让我们把这个带回家。您已经经历了数十年的技术变革。对于正在经历这场 AI 转型中的每个人,无论是技术专家、领导者还是公民,他们感受到了兴奋和焦虑的混合,您想提供什么单一的智慧或建议来驾驭我们今天正在经历的这个疯狂时刻?
ES:所以要记住的一件事是,这是一场马拉松,而不是短跑。有一年我决定参加一场 100 英里的自行车赛,那是一个错误。这个想法是,我学到了关于转速(spin rate)的知识。每天,您都起床,然后继续前进。
ES:你知道,从我们在谷歌的合作中,当您以我们正在增长的速度增长时,您在一年内完成了如此多的工作,您会忘记自己走了多远。人类无法理解这一点。我们正处于这样一个境地:指数正在像这样移动。随着这些事情发生得越来越快,您会忘记两年前或三年前的真相是什么。这是关键。
所以,我对你们的建议是:驾驭这波浪潮(ride the wave),但每天都要驾驭。不要将其视为偶发性的(episodic)和可以结束的事情,而是要理解它并在此基础上建设。
ES:你们每个人都有理由使用这项技术。如果您是艺术家、教师、医生、商人、技术人员。如果您不使用这项技术,与您的同龄人、竞争对手以及那些想成功的人相比,您将失去相关性(not going to be relevant)。采用它,并快速采用。
我一直对这些系统的速度感到震惊——顺便说一句,我的背景是企业软件(enterprise software),现在有一种来自 Anthropic 的 Protocol 模型。您实际上可以将模型直接连接到数据库,无需任何连接器(connectors)。我知道这听起来很书呆子。
ES:那里有一个整个行业将会消失,因为您现在拥有了所有这些灵活性。您只需说出您想要的,它就会产生它。这是一个商业真正变化的例子。每天都有这么多这样的事情发生。
BS:女士们,先生们,Eric Schmidt。
ES:非常感谢。
(掌声)
CA:谢谢。