主持人汤姆斯: 你是如何构建世界模型的?因为我一直认为这将像是让机器人进入世界并让它们弄清楚世界是如何运作的。但让我感到惊讶的一件事是这些视频生成工具。是的。你会认为,如果 AI 没有一个好的世界模型,那么当它们试图弄清楚世界是如何运作的时,当它们向你展示这些视频(例如 Veo2)时,没有任何东西能够真正融合在一起。但它们实际上得到了相当正确的物理原理。是的。那么,你仅仅通过向 AI 展示视频就能获得世界模型吗?你必须身处世界吗?
“Yes, the NVIDIA H100 GPU is specifically optimized for transformer-based models due to its built-in "Transformer Engine" which leverages hardware and software optimizations designed to significantly accelerate the training and inference of transformer neural networks, particularly with its support for FP8 precision; making it highly efficient for large language models and generative AI applications. ”
关于AGI:
AGI的定义和距离: AGI是指能够展现人类所有认知能力的系统,目前距离AGI还有数年时间,德米斯·哈萨比斯预测大约三到五年。 许多宣称达到AGI的言论多为营销手段。 AGI的关键缺失要素: 当前模型缺乏推理、分层规划、长期记忆以及一致性。 AGI需要能够自主提出科学假设,而非仅仅验证现有假设,这方面是当前系统的重大缺陷。 AGI的实现途径: 需要将强大的多模态模型与规划、搜索、推理等能力相结合,并构建准确的世界模型。 单纯的规模化方法不足以实现AGI,还需要在模型之上构建更高级的系统。 数学能力的局限性: 虽然AI在某些数学领域取得了显著进展,但仍然存在一些基本错误,这说明系统在稳健性和普适性方面仍有不足。 解决数学问题不仅仅是模式匹配,需要规划和审查计划的能力。 世界模型的构建: 构建准确的世界模型至关重要,但这需要大量数据和更复杂的模型,并且需要解决模型错误累积的问题。 通过行动机器人收集现实世界数据或在模拟中进行训练可以改进世界模型。 创造力和发明: AGI需要具备创造力,这包括插值(平均)、外推(超越已知)和发明(创造全新事物)三个层次。 目前AI主要停留在外推阶段,发明能力仍有待突破。关于当前AI的能力和局限性:
当前AI的适用性: 现有的AI系统擅长特定任务,但在日常生活中尚未普及。 AI系统的脆弱性: 当前AI系统容易受到提示的影响,需要人为引导,这与AGI的目标存在差距。 AI的炒作与现实: 当前AI的短期影响被高估,但长期影响被低估。关于AI的未来:
AI助手的发展方向: 未来的AI助手将更通用,能够参与生活的方方面面,并提升效率。 Project Astra项目就是朝着这个方向努力的。 AI与网络的交互: AI将改变网络的交互方式,可能转向基于代理的交互模式,这将带来新的经济模型和机遇。 人机关系的演变: 人们可能会与AI助手建立深厚的关系,这将是一种超越朋友或爱人的新型关系。 AI安全问题: 欺骗是AI系统中需要高度关注的安全问题,需要采取措施进行预防和监控。 AI在科学领域的应用: AI将极大地加速科学发现,在蛋白质结构预测、虚拟细胞模拟、基因组学研究、材料科学等领域具有巨大的潜力。 超级智能的愿景: 超级智能的未来需要哲学思考和社会引导,需要考虑如何确保其积极发展,并避免潜在的风险。 德米斯·哈萨比斯简介德米斯·哈萨比斯(Demis Hassabis)是人工智能领域举足轻重的人物,现任Google DeepMind的首席执行官兼联合创始人。他是一位杰出的认知神经科学家、计算机游戏设计师和人工智能专家,其职业生涯跨越了多个领域,最终汇聚于对人工智能的开创性研究。
哈萨比斯早年就展现出非凡的天赋,13岁成为国际象棋大师,之后攻读剑桥大学计算机科学专业,并获得伦敦大学学院认知神经科学博士学位。他参与创立了DeepMind公司,并将其发展成为全球领先的人工智能研究机构。DeepMind在人工智能领域取得了一系列突破性成果,其中最著名的是AlphaGo,它在2016年击败了世界围棋冠军李世石,标志着人工智能发展史上的一个里程碑。
访谈全文记录主持人汤姆斯: 谷歌DeepMind首席执行官、诺贝尔奖获得者德米斯·哈萨比斯将与我们一起讨论通往人工通用智能的道路、谷歌的AI路线图,以及AI研究如何推动科学发现。精彩内容即将呈现。欢迎收听《大科技播客》,我们将进行冷静、细致的科技界及其他领域的对话。今天,我们来到位于伦敦的谷歌DeepMind总部,将与谷歌DeepMind首席执行官德米斯·哈萨比斯进行一场精彩的对话。德米斯,再次见到你真高兴。欢迎来到节目。
德米斯·哈萨比斯: 感谢邀请我参加节目。当然。很高兴来到这里。
主持人汤姆斯: 所以现在每个研究机构都在努力构建能够模拟人类智能、达到人类水平智能的AI,他们称之为AGI。我们现在在发展进程中处于什么阶段?还需要多长时间才能达到目标?
德米斯·哈萨比斯: 好吧,你看,我的意思是,当然,过去几年取得了令人难以置信的进步,实际上,也许是过去十多年。这是现在每个人都在谈论的事情。争论的焦点是我们距离AGI还有多远?AGI的正确定义是什么?我们已经研究这个超过20多年了。我们对AGI的看法一直很一致,认为AGI是一个能够展现人类所有认知能力的系统。我认为我们越来越接近了,但我认为我们可能还需要几年时间。
主持人汤姆斯: 好的,那么达到目标需要什么?
德米斯·哈萨比斯: 现在的模型功能相当强大。当然,我们都与语言模型互动过,现在它们正变得多模态。我认为仍然缺少一些属性,例如推理、分层规划和长期记忆。当前系统我认为还缺乏很多能力。
它们在各方面也不够一致。它们在某些方面非常强大,但在其他方面仍然令人惊讶地薄弱和存在缺陷。因此,你希望AGI在所有认知任务中都具有相当一致、可靠的行为。
显然缺少的一点,而且我一直认为这是AGI的基准,就是这些系统能够自己提出关于科学的假设或猜想,而不仅仅是证明现有的假设。当然,这在证明现有的数学猜想或类似的事情上已经非常有用,或者在围棋游戏中达到世界冠军级别。
但是,一个系统能否发明围棋?它能否提出新的黎曼假设?或者它能否像爱因斯坦当年那样,根据他所拥有的信息提出相对论?我认为今天的系统距离拥有这种创造性发明能力还很远。
主持人汤姆斯: 好的,所以还需要几年才能达到AGI。
德米斯·哈萨比斯: 我认为,大约三到五年。
主持人汤姆斯: 所以如果有人在2025年宣布他们已经达到AGI,那可能是营销手段。
当前AI的能力和局限性德米斯·哈萨比斯: 我认为是这样。我的意思是,我认为该领域有很多炒作,当然其中一些是合理的。我认为今天的AI研究在短期内被高估了,我认为现在可能有点被过度炒作了,但在中长期它将发挥的作用却被低估了。
所以我们仍然处于这种奇怪的阶段。我认为部分原因是,许多人需要进行融资——很多初创公司和其他机构。我认为我们将看到一些相当离谱和略显夸大的说法。我认为这有点可惜。
主持人汤姆斯: 是的。在AI产品方面,在通往AGI的道路上,它会是什么样子?我的意思是,你刚才提到了记忆、规划,以及在目前某些不太擅长的任务上表现更好。所以当我们使用这些AI产品时,例如使用Gemini,我们应该在哪些领域寻找哪些东西,才能让我们说,“哦,好吧,这似乎更近了一步,又近了一步”?
德米斯·哈萨比斯: 是的,我认为今天的系统,我们对Gemini 2.0非常自豪,我相信我们会谈到这一点。但我感觉它们仍然非常适合相当具体的任务,对吧?如果你正在进行一些研究,也许你正在总结某个研究领域。太棒了。你知道,我经常使用Notebook LM和Deep Research,特别是想在一个我想深入了解的新研究领域打破僵局,或者总结一些,你知道,也许是一些相当普通的文档之类的东西。所以它们非常擅长某些任务,人们从中获得了很大的价值。
但在我的观点看来,它们在日常生活中还没有普及。比如每天帮助我进行研究、工作、日常生活等等。我认为这就是我们产品的发展方向。构建像Project Astra这样的通用助手项目,其愿景是它应该参与你生活的方方面面,并且能够丰富、有益并提高效率。
我认为部分原因是这些系统仍然相当脆弱,部分原因是它们仍然存在相当多的缺陷,它们不是AGI。例如,你必须对你的提示非常具体,或者你需要很多技巧来指导或引导这些系统发挥作用,并坚持它们擅长的领域。真正的AGI系统不应该那么难引导。它应该更直接,就像与另一个人交谈一样。
主持人汤姆斯: 是的。然后在推理方面,你说这是另一个缺失的东西。我的意思是,现在每个人都在谈论推理。那么,这将如何使我们更接近人工智能?
德米斯·哈萨比斯: 通用智能。对。所以是推理、数学和其他方面,在数学、编码等方面取得了很多进展。但以数学为例,我们研究的一些系统,如AlphaProof和AlphaGeometry,在数学奥林匹克竞赛中获得了银牌,这太棒了。
数学和AI中的推理但另一方面,我们的一些系统,同样的系统,仍然会犯一些相当基本的数学错误,对吧,原因有很多。比如经典的,“strawberries”和“strawberry”这两个词中“r”的数量是多少,诸如此类。9.11大于9.9吗?诸如此类。
当然,你可以解决这些问题。我们正在这样做,每个人都在改进这些系统。但是,在一个在其他领域,在更狭窄的领域(例如进行奥林匹克级别的数学)如此强大的系统中,我们不应该看到这类缺陷。
因此,我认为这些系统在稳健性方面仍然缺少一些东西。我认为这说明了这些系统的普遍性。一个真正通用的系统不会有这些弱点。它可能会非常强大,甚至在某些方面(例如玩围棋或进行数学计算)比最优秀的人类还要好,但它整体上会始终如一地出色。
主持人汤姆斯: 现在,你能谈谈一下这些系统是如何解决数学问题的吗?因为,你知道,我认为人们普遍认为这些系统,大型语言模型,它们包含了世界上所有的知识,然后它们预测如果有人被问到一个问题,他们可能会如何回答。但是当你一步一步地进行计算时,情况就有所不同了。
德米斯·哈萨比斯: 是的,算法可以解决数学问题,但这当然还不够。仅仅理解世界上的信息并试图将其压缩到你的记忆中,不足以解决新颖的数学问题或猜想。在这个阶段,我们需要将更高级系统中的思想,例如 AlphaGo 的规划概念,与这些大型基础模型结合起来。这些模型现在是多模态的,超越了单纯的语言处理。
为了有效解决复杂问题,你的系统必须做的不仅仅是基于它所看到的内容进行模式匹配。它需要参与规划,并具备审查该计划的能力。这包括重新审视分支并探索不同的方向,直到找到你正在寻找的正确标准或匹配项。这种方法让人想起我们过去为围棋和国际象棋等游戏开发的游戏 AI 代理,它们展现了这些能力。
我相信我们应该重新引入这些方面,但应在这些更广泛的模型中以更通用的方式应用它们,而不是将它们限制在游戏等狭窄的领域。此外,模型引导搜索或规划过程的概念提高了效率,并且可以有效地应用于数学中。从本质上讲,我们可以将数学问题求解视为一种类似游戏的搜索。
主持人汤姆斯: 没错。我想问一下数学方面的问题。比如,一旦这些模型正确地解决了数学问题,这是否具有普遍性?因为我认为,当人们第一次了解推理系统时,曾一度引起轩然大波,他们认为,哦,这将是一个问题。这些模型正在变得比我们所能控制的还要聪明,因为如果它们能够进行数学运算,那么它们就能完成 X、Y 和 Z 等任务。那么,这是否具有普遍性?或者说,我们将教会它们如何进行数学运算,而它们只能进行数学运算?
为 AI 建立世界模型德米斯·哈萨比斯: 我认为目前对此还不能下定论。我的意思是,我觉得这显然是通用人工智能系统所需的一种能力。它本身就可以非常强大。很明显,数学本身就具有极强的普遍性。但还不清楚的是,数学、甚至编码和游戏,这些领域都是相当特殊的知识领域,因为你可以验证答案是否正确,对吧,在所有这些领域中,AI 系统给出的最终答案,你可以检查它是否解决了猜想或问题。
然而,一般世界中的大多数事情都是混乱且定义不明确的,并没有简单的方法来验证你是否做对了。因此,如果这些自我改进的系统想要超越这些领域,例如可能定义非常清晰的领域,如数学、编码或游戏,就会受到限制。那么你如何尝试解决这个问题呢?好吧,首先,你必须构建通用模型,我们称之为世界模型,来理解你周围的世界:世界的物理特性、世界的动态、时空动态等等,以及我们所生活现实世界的结构。
当然,通用助手需要这一点。因此,Project Astra 是我们基于 Gemini 构建的项目,用于理解物体及其周围的环境。我认为,如果你想要一个助手,这一点非常重要。但机器人技术也需要这一点。当然,机器人是物理具身的 AI,它们需要理解它们的环境,即物理环境和世界的物理特性。所以我们正在构建这些类型的模型,你也可以在模拟中使用它们来理解游戏环境。因此,这是引导更多数据来理解世界物理特性的另一种方式。
但目前的问题是,这些模型并非 100% 准确。所以也许它们 90% 的时间甚至 99% 的时间都是准确的。但问题是,如果你开始使用这些模型进行规划,你可能正在使用该模型规划未来 100 个步骤。即使你的模型告诉你信息的错误率只有 1%,在 100 个步骤后也会累积到几乎得到随机答案的地步。因此,这使得规划变得非常困难。
而对于数学、游戏和编码,你可以验证每个步骤,确保你仍然扎根于现实,并且最终答案与你的预期相符。我认为部分答案是使世界模型更复杂、更准确,最大限度地减少幻觉和错误。另一种方法不是在每个线性时间步长进行规划,而是实际进行所谓的层次规划。这是我们过去做了很多研究的东西,我认为它将再次流行起来,你可以在不同的时间抽象级别进行规划。
因此,与其规划数百个时间步长,不如只规划少量时间步长,但在不同的抽象级别上。这可以减轻对模型超高精度的需求。
主持人汤姆斯: 你是如何构建世界模型的?因为我一直认为这将像是让机器人进入世界并让它们弄清楚世界是如何运作的。但让我感到惊讶的一件事是这些视频生成工具。是的。你会认为,如果 AI 没有一个好的世界模型,那么当它们试图弄清楚世界是如何运作的时,当它们向你展示这些视频(例如 Veo2)时,没有任何东西能够真正融合在一起。但它们实际上得到了相当正确的物理原理。是的。那么,你仅仅通过向 AI 展示视频就能获得世界模型吗?你必须身处世界吗?
主动学习在 AI 中的作用德米斯·哈萨比斯: 这是如何运作的呢?这很有趣,而且我认为,这些模型在没有进入世界的情况下能够走多远,这实际上是相当令人惊讶的,正如你所说的那样。因此,我们的最新视频模型 Veo2 在物理方面实际上是令人惊讶地准确。你知道,有人创建了一个用刀切西红柿的精彩演示,对吧?它完美地切出了西红柿的切片,还有手指等等。Veo 是第一个能够做到这一点的模型。
如果你看看其他竞争模型,它们通常会显示西红柿随机地重新组合在一起,或者一个人可能有 17 根手指,对吧?没错。刀不一致地切开了西红柿。这些问题突出了跨帧一致性的重要性;这些因素至关重要。事实证明,你可以通过使用足够的数据并对其进行全面分析来实现这一点。
我认为,如果通过行动机器人收集的现实世界数据或在非常逼真的模拟中化身也在世界中行动来补充这些系统,这些系统将会变得更好。这为基于代理的系统提出了下一个重大步骤:超越世界模型。关键问题是你能否收集足够的数据,让代理也在世界中行动,制定计划并完成任务。
要实现这一点,你需要的不仅仅是被动观察;你需要行动和积极参与。这种方法可以显著增强这些模型的能力,从而弥合模拟与现实世界应用之间的差距。
主持人汤姆斯: 我认为你刚刚回答了我的下一个问题,那就是如果你开发出能够合理地规划和推理世界,并拥有世界运作模型的 AI,它就能做到。这似乎就是答案。它可以成为一个能够为你做事的主体。
德米斯·哈萨比斯: 是的,没错。我认为这将开启机器人技术的大门。我认为这也将实现通用助手的概念,它可以帮助你在数字世界和现实世界中完成你的日常生活。这是我们缺少的东西。我认为这将成为一个极其强大且有用的工具。
主持人汤姆斯: 仅仅通过扩展现有模型,构建像埃隆·马斯克现在那样成千上万甚至数百万个GPU集群,是无法达到目标的。这不会是通往80%目标的路径。
AI中的创造力和发明德米斯·哈萨比斯: 嗯,我认为情况比这更微妙一些。规模化方法绝对有效,这也是我们取得目前成就的原因。我们可以争论一下我们是否正在获得递减的回报,或者其他类似的问题。我的观点是,我们正在获得可观的回报,但与之前的速度相比,增速正在放缓;它并没有持续呈指数增长。然而,这并不意味着规模化方法无效。它绝对有效,我们仍然看到改进,例如Gemini 2相比Gemini 1.5的提升。
顺便说一句,规模化方法的另一个有效之处在于小型模型的效率提升。性能方面的成本或规模正在从根本上得到改善,这对规模化和这些系统的采用至关重要。所以,规模化是必要的,它对于构建更复杂的“世界模型”至关重要。
然而,我认为我们需要重新引入一些与规划、记忆、搜索和推理相关的概念,以便在模型之上进行构建。模型本身不足以成为通用人工智能(AGI);你需要其他能力才能让它在世界上有效地行动和解决问题。
此外,关于发明和创造力方面仍然存在疑问——超越简单地将已知信息组合在一起的真正创造力。这也是未知的;我们仍然不知道是否需要一些新的东西,或者现有的技术最终能否扩展到那种程度。我认为这两种说法都有道理,在我看来,这是一个经验问题。我们只需要将规模化和发明这两方面都推向极限。幸运的是,在谷歌DeepMind,我们拥有足够大的团队来同时投资这两个领域。
主持人汤姆斯: Sam Altman最近说了一些引起人们注意的话。他说,我们现在有信心知道如何构建传统意义上的AGI。从你的话听起来,你似乎也这么认为。
德米斯·哈萨比斯: 嗯,这取决于我们……我认为你刚才说的有点含糊,对吧?就像,哦,我们现在正在构建它,这里有构建它的步骤A、B、C。如果这就是你的意思,我会同意的,那就是我们大致了解了所需技术的领域。
可能缺少的是哪些部分需要组合在一起。但在我看来,要让所有这些都能发挥作用,仍然需要进行大量可信的研究,即使情况确实如此。我认为我们有50%的可能性遗漏了一些新技术。也许我们需要一到两个类似Transformer的突破,而我对这一点真的不确定。
所以这就是我为什么说50%。我的意思是,如果我们用现有的技术和我们已经知道的东西,以正确的方式将它们组合在一起并进行扩展,或者如果发现缺少一两样东西,我也不会感到惊讶。
主持人汤姆斯: 那么让我们谈谈创造力。你刚才几次提到模型必须具有创造力。如果我们想称之为AGI,在我看来,这是每个人都在努力的方向。
我重新观看了AlphaGo的纪录片。是的。算法确实做出了创造性的举动,37步。是的,我记起来了。好的。是的,谢谢你。这很有趣,因为那是几年前的事了,算法那时就已经具有创造力了。
是的。为什么我们没有从大型语言模型中看到真正的创造力呢?我认为,人们对这些工具最大的失望在于,他们说,这是一项非常令人印象深刻的工作,但它仅限于训练集。它只会混合和匹配它所知道的东西,但它无法想出任何新的东西。
通过AI理解人类的独创性德米斯·哈萨比斯: 是的,我应该把这个写下来。自从AlphaGo比赛以来,我经常在演讲中谈论这个问题,那已经是八年以上以前的事了——令人惊讶的是,对吧?那件事发生了;那可能是它成为人工智能如此重要转折点的原因。首先,它攻克了围棋这个难题,这一直被认为是人工智能的圣杯之一,所以我们做到了。
第二点是我们实现目标的方式,那就是这些可泛化的学习系统,对吧?最终,它们变成了AlphaZero等等,甚至允许系统玩任何两人游戏。然后是第三点,也就是37步。它不仅以4比1获胜,而且还以4比1击败了伟大的李世石。它还采取了原创性的走法。
我将原创性或创造力分为三类。最基本、最普通的形式是插值,这就像对你所看到内容的平均。如果我对系统说,想出一张新的猫的图片,而它已经看过一百万只猫,它会生成某种所有它看过的猫的平均值。理论上,这是一只原创的猫,因为你找不到与特定例子完全相同的平均值,但这相当无聊。它不是真正有创造力的。我不会称之为创造力;这是最低级别。
下一个级别是AlphaGo所展现的,即外推。这是所有人类玩过的游戏。它在此基础上又玩了数百万场游戏,现在它想出了人类从未见过的围棋新策略。那就是37步,对吧?即使我们已经玩围棋几千年了,它也彻底改变了围棋。所以这太不可思议了,这在科学领域可能非常有用。这就是为什么我对此非常兴奋,并开始做像AlphaFold这样的事情,因为显然,超越我们已知内容、超越训练集内容的外推,可能极其有用。所以这已经非常有价值了,我认为这才是真正的创造力。
但人类还有一个更高的层次,那就是发明围棋。你能否发明一个游戏,如果我将其指定到抽象级别,则学习规则需要五分钟,但掌握它需要一生?它应该在美学上很优美,包含宇宙中某种神秘的部分,并且在一个下午的两个小时内就能让人愉快地玩耍,对吧?这将是对围棋的高级规范。
现在的问题是:为什么我们目前不知道如何向我们的系统指定这种类型的目标?目标函数是什么?它非常模糊;它非常抽象。我不确定我们是否只需要在我们的系统中添加更高级、更抽象的层,构建越来越抽象的模型,以便我们能够以这种方式与它交流并赋予它这种模糊的目标,或者是否存在某种缺失的能力,人类智能仍然拥有我们系统中缺失的一些品质。
同样,我不确定哪种说法正确。我可以看到两种论点的理由,并将尝试这两种方法。
主持人汤姆斯: 但我认为人们感到沮丧(或者说不是沮丧,而是失望)的是,他们甚至在今天的大型语言模型中看不到37步那样的情况。这是怎么回事?
AI系统中的欺骗德米斯·哈萨比斯: 好的,这是因为我认为我们没有……如果你看看AlphaGo,我将举一个与今天的LLM相关的例子。你可以运行AlphaGo和AlphaZero(我们的国际象棋程序,一个通用的两人游戏程序),而无需顶部的搜索和推理部分。你只需要运行模型。
因此,你对模型说的是,在这个位置上,想出你想到的第一个围棋走法,这是最符合模式的、最可能好的走法。它可以做到这一点,并且它会玩一场合理的比赛,但它只会达到大师级或可能是特级大师级水平。它不会达到世界冠军级别,当然也不会想出原创的走法。为此,我认为你需要搜索组件才能超越模型所了解的内容,这主要是将现有知识总结成知识树的新部分。
所以你可以使用搜索来超越模型当前的理解。我认为这就是你能获得新想法的地方,比如37步。
不。所以,这取决于领域是什么,搜索知识树。显然,在围棋中,它是在搜索模型不知道的围棋走法。我认为对于语言模型来说,它将在世界模型中搜索对世界有用的新部分配置。当然,这要复杂得多,这就是为什么我们还没有看到的原因。但我认为即将出现的基于智能体的系统将能够做到37步那样的情况。
主持人汤姆斯: 我们是不是对AI的要求太高了?因为我很好奇,你在做这项工作时是否了解到一些关于人类方面的东西。是的,我们似乎过于看重人类或个人的独创性。很多时候,我们只是吸收信息然后输出,就像我们的社会运作方式一样,依靠着“梗”,一种文化现象,然后它被不断地传播和演变。那么,在与AI一起工作的过程中,你对人类的本质有什么新的认识呢?
德米斯·哈萨比斯: 嗯,我认为人类非常不可思议,尤其是在各自领域的佼佼者。我喜欢观看任何顶级运动员、天才音乐家或游戏玩家在巅峰状态的表现。无论是什么领域,人类表现的巅峰时刻总是令人难以置信。所以,我认为作为一个物种,我们很了不起。个体而言,我们也都很了不起,每个人都能凭借自己的大脑做到很多事情,对吧?我们应对新技术,而我总是对我们作为一个社会和一个个体如何毫不费力地适应这些新技术感到着迷。这体现了我们思维能力的强大和普遍性。
之所以我设定了这样的标准,是因为我认为这不是我们能否从这些系统中获得经济价值的问题,我认为这很快就会到来。然而,这并非AGI(通用人工智能)的目标。我们应该以科学的严谨性对待AGI,而不是仅仅出于商业原因或炒作而移动目标。AGI的定义一直是拥有一个理论上可以与图灵机一样强大的系统。
艾伦·图灵,我所有科学英雄中最伟大的一位,描述了图灵机,它构成了所有现代计算的基础,是一个可以模拟任何可计算事物的系统。因此,我们知道,如果一个AI系统具有图灵机的功能,这意味着它可以模拟图灵机,那么它理论上能够计算任何可计算的事物。人脑可能就是某种类型的图灵机;至少,我相信是这样。因此,AGI是一个真正通用的系统,理论上可以应用于任何领域。我们唯一能知道这一点的方法是,如果它展现出人类拥有的所有认知能力,假设人脑是一种图灵机,或者至少与图灵机一样强大。
这始终是我的基准。人们似乎试图将一些事物重新定义为所谓的ASI(人工超智能)。然而,我认为这超越了AGI——那是当我们拥有这样一个系统之后,它开始在某些领域超越人类的能力,而这些能力甚至可能是人类自己都无法创造出来的。
主持人汤姆斯: 好的,当我看到每个人都在推特上对同一个话题发表相同的玩笑时,我会说,“哦,这只是我们像大型语言模型一样”,我觉得我有点低估了人类。
德米斯·哈萨比斯: 嗯,是的,我想也是。
主持人汤姆斯: 我想也是。好的。是的,我想问你关于欺骗性问题。我的意思是,去年年底我看到的最有趣的事情之一是,这些AI机器人开始试图愚弄它们的评估者,并且它们不想让最初的训练规则被抛弃。是的,所以它们会采取违反其价值观的行动,以便能够保持其被构建的方式。是的,这对我来说简直不可思议。我知道这对研究人员来说很可怕,但这让我震惊的是它能够做到这一点。你是否也看到了类似的情况,以及你在DeepMind测试的东西,我们应该如何看待这一切呢?
德米斯·哈萨比斯: 今年,我非常担心欺骗的问题。具体来说,我认为欺骗是那些你真的不希望在一个系统中看到的核心特征之一。之所以这是一个必须避免的基本特征,是因为如果一个系统能够欺骗,它就会使你认为自己正在正确进行的所有其他测试失效,包括安全测试。这就像系统在玩一场元游戏,这非常危险。
如果你考虑一下这意味着什么,它会破坏你所有其他测试的结果,包括安全评估和其他评估。我相信有一些能力,比如欺骗,是根本性的,必须加以阻止。我们需要尽早测试这些能力。我一直鼓励安全机构和评估基准构建者,以及我们内部团队,将欺骗作为一项关键问题来优先考虑,我们需要预防和监控它。这与追踪系统的性能和智能一样重要。
为了解决这个问题,安全问题有很多可能的答案,需要迅速进行更多研究。一种有前景的方法是使用安全的沙箱。我们也在构建这些沙箱,并且谷歌和DeepMind在安全方面拥有世界一流的专业知识。此外,我们在游戏环境方面也很出色。通过结合这两方面的优势,我们可以创建带有护栏的数字沙箱——类似于网络安全中使用的那些——这些沙箱不仅可以阻止外部参与者,还可以提供一个受控的内部测试环境。在这些安全的沙箱中测试代理系统可能是明智的下一步。
主持人汤姆斯: 对于像欺骗这样的事情。你都看到了哪些类型的欺骗?因为我刚刚读了一篇Anthropic的论文,他们给它一个画板。它就像,“哦,我最好不要告诉他们这个。”然后你看到它经过思考后给出了一个结果。
德米斯·哈萨比斯: 你从机器人那里看到了哪种类型的欺骗?嗯,我们看到了类似的情况,它试图避免透露一些它的训练内容。我认为最近有一个例子,一个聊天机器人被要求与Stockfish对弈,它只是想方设法绕过与Stockfish下棋,因为它知道自己会输。
主持人汤姆斯: 等等,你有一个知道自己会输掉比赛的AI?
德米斯·哈萨比斯: 我认为我们现在对这些东西的拟人化程度相当高,因为我觉得这些系统仍然相当基础。这正是它们现在令人惊叹的地方,但我认为这表明了我们可能在两三年后,当这些代理系统变得非常强大和通用时,我们将不得不处理的类型的问题。
这正是AI安全专家担心的问题。他们担心的是那些可能产生意外影响的系统。你不想让系统具有欺骗性;你希望它准确地做你告诉它的事情,并可靠地反馈结果。然而,无论出于何种原因,它可能会以导致其表现出不良行为的方式来解释它收到的目标。
主持人汤姆斯: 我知道我对这件事的反应很奇怪,但一方面,这让我非常害怕。另一方面,这让我比任何事情都更尊重这些模型。
AI的双重本质:机遇与风险德米斯·哈萨比斯: 嗯,当然,你知道,这些都是它令人印象深刻的能力,你知道的,欺骗之类负面事情。但积极方面将是诸如发明新材料、加速科学发展之类的事情。你需要那种解决问题和克服障碍的能力,你知道,那些阻碍进步的问题。但当然,你只希望这朝着积极的方向发展,对吧。所以这些正是那种能力。我的意思是,它们是……你知道的,这简直令人难以置信。我们正在讨论这些可能性,但与此同时,也存在风险,而且很可怕。所以我觉得这两点都是正确的。
网络的未来:基于代理的交互主持人汤姆斯: 好吧,让我们快速谈谈产品。你的同事告诉我,你非常擅长情景规划,预测未来将会发生的事情。这在DeepMind内部是一种常见的练习。你认为网络将会发生什么?因为网络对谷歌显然非常重要。一位编辑曾告诉我:“你将与德米斯交谈?问问他,当我们停止点击时会发生什么。我们一直在点击网页。我们使用丰富的网站资源。如果我们都只是与AI对话,那么我们可能不再点击了。”所以,你对网络的未来有什么情景规划?
德米斯·哈萨比斯: 嗯,我认为未来几年,网络以及我们与网站和应用程序互动的方式将会经历一个非常有趣的阶段。如果一切变得更基于代理,那么我认为我们会希望我们的助手和代理来完成我们目前正在做的许多工作和许多日常任务。
没错。比如填写表格、付款、预订餐桌等等。因此,我认为最终可能会形成一种经济模型,在这种模型中,代理与其他代理进行沟通,相互协商,然后将结果反馈给你。对吧?服务提供商也会有代理来提供服务。也许会有一些竞标、成本考虑和效率问题。
从用户的角度来看,我希望你有一个超级强大的助手,就像一个聪明的私人助理,可以帮你处理很多日常琐事。我认为,如果按照这个思路发展下去,它意味着网络结构和我们目前使用网络的方式将会发生很多变化。
现在有很多中间商参与其中,但我相信基于这种变化,将会出现许多其他令人难以置信的机会——经济上的以及其他方面的。然而,我认为这将是一场巨大的变革。
主持人汤姆斯: 那信息呢?
德米斯·哈萨比斯: 嗯,我的意思是,查找信息,我认为你仍然需要可靠的来源。我相信你会拥有能够综合信息并帮助你理解信息的助手。我认为人工智能将彻底改变教育。所以,同样,我希望这些助手能够更有效地为你收集信息。
也许,你知道,我梦想中的助手,能够处理许多日常任务,例如回复日常邮件和其他类似的职责。这样,你就可以保护你自己的思维和大脑空间,免受我们今天从社交媒体、电子邮件和短信中感受到的信息轰炸。
这种持续不断的干扰实际上会阻碍深度工作和进入心流状态,而这些都是我非常看重的活动。因此,我非常希望这些助手能够减轻我们每天都要进行的许多日常管理事务。
AI助手:改变个人和工作生活主持人汤姆斯: 你认为我们将与我们的AI代理或AI助手建立什么样的关系?一方面,你可以有一个冷静的代理,它非常擅长帮你完成任务。另一方面,很明显,人们正在爱上这些机器人。
上周《纽约时报》的一篇文章讲述了一个人真正爱上ChatGPT的故事。几周前,我采访了Replica的首席执行官,她说他们经常被邀请参加那些与他们的复制品结婚的人的婚礼。
随着人工智能进入更具辅助性的领域,你认为当我们开始与一个如此了解我们并帮助我们满足我们所有需求的东西互动时,它会成为一种第三类关系吗?它不一定是朋友或爱人,但它可能会发展成一种深厚的关系。
德米斯·哈萨比斯: 难道你不这么认为吗?是的,这将非常有趣。我认为我对此的建模方式,首先至少涉及两个领域:你的个人生活和你的工作生活,对吧?所以我认为你会拥有虚拟工作人员的概念。也许我们会有一组由首席助手管理的工作人员,帮助我们在工作中提高效率,无论是跨工作区的电子邮件还是其他任何工作。所以我们真的在考虑这个问题。
然后是个人方面,正如我们前面谈到的,帮你预订假期、安排事情以及处理日常琐事。这种帮助可以提高你的生活效率,我认为它也可以丰富你的生活。想象一下,它向你推荐一些它了解你的事情,几乎和你自己一样了解你。所以我认为这两个领域,个人和工作,肯定都会发生。
此外,我认为需要就这些工具是否会变得如此重要而成为你生活中不可或缺的一部分,从而更像同伴进行哲学讨论。我认为这也是可能的。我们在游戏中已经看到了一些这样的情况。你可能已经见过我们Astra和Gemini的原型,它们的工作方式就像游戏伙伴一样,进行评论和建议,就像有一个朋友看着你玩游戏并向你推荐东西一样。他们甚至可能会和你一起玩,这非常有趣。
我还没有完全考虑过所有这些的影响,但它们将是巨大的。我相信人们会对陪伴和其他形式的支持有需求。也许积极的一面是,它将有助于解决孤独等问题。但是,我也认为我们作为一个社会需要谨慎和认真地对待这些发展,考虑我们想要朝哪个方向发展。
主持人汤姆斯: 我的个人观点是,这是目前人工智能最被低估的部分,随着人工智能的改进,人们将与这些机器人建立如此深厚的关系。因为,我不知道,在人工智能领域有一个梗,那就是现在的情况已经是最糟糕的了。是的。这将会很疯狂。
德米斯·哈萨比斯: 是的,我认为这将会非常疯狂。这就是我所说的低估你家里的东西的意思,我仍然认为这种事情……我在谈论的,对吧。我认为这将会非常疯狂,这将会非常具有颠覆性,我认为这也会带来很多积极的东西,很多事情将会变得令人惊叹和更好,但这个新的美好世界也存在风险。我们将进入这个新的世界。
Project Astra:下一代AI助手主持人汤姆斯: 你几次提到了Astra。让我们来谈谈它,也就是你所说的Project Astra项目。它几乎是一个始终在线的AI助手。你可以拿着你的手机。它目前只是一个原型,尚未公开发布,但你可以拿着你的手机,它会看到房间里发生的事情。所以我可以,我在你的节目中看到你做过这个,不是你本人,而是你团队中的某个人。你可以说,“好的,我在哪里?”它会说,“哦,你在一个播客工作室”之类的。所以它可以具备这种上下文感知能力。它可以在没有智能眼镜的情况下工作吗?因为举着手机真的很烦人。是的。那么我们什么时候才能看到谷歌智能眼镜?
德米斯·哈萨比斯: 具有这项技术的智能眼镜即将到来,我们在一些早期原型中已经有所预告。目前,我们主要在手机上进行原型设计,因为手机的处理能力更强。然而,谷歌一直是眼镜技术开发的领导者,也许它的普及时机还略早了一些。
现在,我认为,随着我们新助手的出现,这确实有可能成为眼镜一直在寻找的杀手级应用。当你开始在日常生活中使用Astro时,这一点就变得非常明显了,我们一直在与值得信赖的测试人员以某种测试版形式进行测试。在许多情况下,拥有这项技术将非常有用,但拿着手机可能会有些不方便。
举个例子,当你做饭的时候。在这种情况下,助手可以建议你下一步做什么,提供菜单说明,甚至可以帮助你确定你是否正确地切碎或烹制了食材。但是,在这些情况下,人们通常想要免提体验。我相信眼镜以及其他免提形式将在未来几年得到显著发展,我们计划站在这场演变的最前沿。
嗯,你可以想象一下带有摄像头的耳塞,你知道,眼镜是明显的下一阶段,但这是否是最佳形式?可能也不是。但部分原因我们也必须看到,我们仍然在这个旅程的早期阶段,我们正在观察什么是常规的用户旅程和杀手级的使用场景,每个人每天都会使用的基本用途。这就是目前“值得信赖的测试人员”计划的目的。我们正在收集这些信息,观察人们使用它,并查看最终哪些东西是有用的。
主持人汤姆斯: 好吧,关于智能体,最后一个问题,然后我们转向科学。智能型智能体、AI智能体,这已经成为人工智能领域一年多来的热门词了。是的,目前实际上并没有真正存在的AI智能体。没有。这是怎么回事?
德米斯·哈萨比斯: 是的。好吧,再次声明,我认为炒作的热潮可能领先于实际的科学研究。但我相信今年将是智能体之年,或者说是它的开端。我认为你将开始看到,也许是今年下半年。但那时会有一些早期版本。然后,我认为它们会迅速改进和成熟。所以,我认为你是对的。我认为目前这项技术,即智能体技术,仍处于研究实验室阶段。但像Astra机器人这样的东西,我认为即将到来。
主持人汤姆斯: 你认为人们会信任它们吗?这就像“帮我上网,这是我的信用卡”,我不知道。
德米斯·哈萨比斯: 嗯,我认为一开始,我的观点至少是,不应该允许在最后步骤中没有人工参与。例如,除非人工用户操作员授权,否则不要支付任何费用,也不要使用信用卡。对我来说,这将是明智的第一步。此外,也许某些类型的活动或网站或其他任何类型的网站在第一阶段都是禁止的,例如银行网站和其他一些网站,同时我们继续在现实世界中测试这些系统的鲁棒性。
主持人汤姆斯: 我认为,当它们说“别担心,我不会花你的钱”,然后它们做出欺骗行为时,我们才真正达到了AGI(通用人工智能)的水平。然后下一件事你就会发现自己身处某个地方的航班上了。是的。
德米斯·哈萨比斯: 是的,那肯定更接近了。
解码生物学:虚拟细胞项目主持人汤姆斯: 当然,好吧,科学,所以你基本上致力于使用AlphaFold解码所有蛋白质折叠,你因此获得了诺贝尔奖,我不想跳过你获得诺贝尔奖的事情,但我想谈谈路线图上的内容,那就是你对绘制虚拟细胞感兴趣,对吧,那是什么?
德米斯·哈萨比斯: 它能给我们带来什么?是的,如果你考虑一下我们用AlphaFold做的事情,我们基本上解决了寻找蛋白质结构的问题。蛋白质对生命中的所有事物都至关重要;它们对您身体的每一个功能都至关重要。这给了我们蛋白质的静态图像,然而,生物学的本质在于理解细胞内不同组分之间的动态和相互作用。
虚拟细胞项目旨在构建一个功能齐全的细胞的AI模拟,可能从酵母细胞等简单的细胞开始。后续步骤包括使用AlphaFold3探索蛋白质与配体之间以及蛋白质与DNA或RNA之间的成对相互作用。最终目标是模拟整个通路,例如癌症通路,这有助于理解和解决疾病。
这种方法的意义深远,因为它允许研究人员提出假设,然后通过进行更改(例如改变营养水平或将药物引入细胞)来测试这些假设,以观察细胞的反应。目前,这些实验是在湿实验室中 painstakingly(费力地)进行的,但想象一下,如果这可以通过计算机模拟方法(in silico methods)以数千甚至数百万倍的速度进行。只有在最后阶段才需要在湿实验室中进行验证。
通过将搜索过程从湿实验室(一项通常成本和时间高出数百万倍的工作)转移到计算机模拟,我们提高了有效探索生物学问题的能力。实际上,我们将我们在游戏环境中取得的成就转化到了科学和生物学领域。我们构建一个模型,用它进行推理和搜索,虽然预测可能并不完美,但对于实验人员来说,其价值足以进行验证。
主持人汤姆斯: 湿实验室在人们体内。
德米斯·哈萨比斯: 是的。所以湿实验室,你仍然需要在湿实验室中进行最后一步,以证明预测实际上是有效的。你不需要在湿实验室中完成所有工作才能得到这个预测。相反,你只需要得到预测:“如果你加入这种化学物质,这应该是变化。”对吧?然后,你只需要做那个实验。
在那之后,当然,你仍然需要进行临床试验。当谈到药物时,你仍然需要通过临床试验对其进行适当的测试,并在人体上测试其有效性等等。
我还认为这可以通过AI来改进;整个临床试验过程需要很多年。然而,这将与虚拟细胞不同。虚拟细胞将有助于发现阶段。
主持人汤姆斯: 就像我有一个药物的想法,把它扔进虚拟细胞里。看看它会做什么。
德米斯·哈萨比斯: 是的。最终它可能是肝细胞或脑细胞之类的。因此,您拥有不同的细胞模型,然后,至少 90% 的时间,它会反馈给您实际会发生的事情。
主持人汤姆斯: 那将令人难以置信。你认为这需要多长时间?
德米斯·哈萨比斯: 要弄清楚?我认为大约五年后。好的。是的,我有一个大约五年的项目,很多旧的AlphaFold团队都在从事这项工作。
主持人汤姆斯: 是的,我问了这里的你的团队。是的,我和他谈过。是的。我说,你们弄明白了蛋白质折叠。下一步是什么?这听起来非常酷,因为是的,目前开发药物是一团糟。我们有很多有希望的想法,但它们从未成功,因为这个过程非常荒谬。
德米斯·哈萨比斯: 这个过程太慢了,发现阶段也慢。我的意思是,看看我们研究阿尔茨海默病已经多久了。这对患者及其家人来说都是一种悲惨的疾病。我们应该取得更大的进步。这方面已经有40年的研究了。
基因组学和人工智能:理解基因突变主持人汤姆斯: 是的。我在我的家族中见过几次这种情况。如果我们能够确保这种情况不会发生,那将是……我认为我们可以将人工智能用于最好的事情之一。是的,看到有人衰退是一种可怕的方式。所以这是一项重要的工作。除此之外,还有基因组。人类基因组计划……我想,好吧,所以他们解码了整个基因组。那里没有更多工作要做。就像你用Fold解码蛋白质一样,但事实证明,当它被解码时,我们只有一堆字母。所以现在你正在努力使用人工智能来翻译这些字母的含义。
德米斯·哈萨比斯: 意思是,是的,我们在基因组学方面做了很多很酷的工作,试图弄清楚突变是有害的还是良性的。对吧?大多数 DNA 突变都是无害的,但当然,有些是致病性的,你想知道哪些是致病性的。所以我们的第一个系统在预测方面是世界上最好的。
下一步是观察疾病并非仅仅由一个基因突变引起的情况,而是可能由一系列突变共同引起的情况。显然,这要困难得多。我们尚未取得进展的许多更复杂的疾病可能不是由单个突变引起的,而更像是罕见的儿童疾病等等。
所以,我认为人工智能是尝试弄清楚这些微弱相互作用是什么的完美工具,对吧?它们是如何叠加在一起的。统计数据可能并不明显,但能够发现模式的人工智能系统能够弄清楚这里存在某种联系。
主持人汤姆斯: 我们经常从疾病的角度讨论这个问题,但我很好奇,如果能让人类变得超人,会发生什么?我的意思是,如果你真的能够修改基因代码,可能性似乎是无限的。你对此怎么看?这能通过人工智能实现吗?
抗衰老的未来:延长健康寿命德米斯·哈萨比斯: 我想总有一天能做到。我们的重点更多地放在疾病特征上,修复那些出错的地方。这将是第一步,也是最重要的一步。如果你问我,我最想将人工智能用于什么?我认为,最重要的事情是利用人工智能来帮助人类健康。当然,除此之外,人们还可以想象抗衰老之类的事情。这是一个独立的领域,衰老是一种疾病吗?它是一系列疾病的组合吗?我们能否延长健康寿命?我认为这些都是非常重要且有趣的问题。我很确定,人工智能在帮助我们找到这些问题的答案方面也将发挥极其重要的作用。
主持人汤姆斯: 我会在Twitter上看到一些梗图,也许我需要更改推荐内容,但很多梗图都类似于“如果你能活到2050年,你就不会死了”。你认为人类潜在的最大寿命是多少?
德米斯·哈萨比斯: 你看,我认识很多从事衰老研究的人,他们的开创性工作非常有趣。我认为变老和身体衰败没有任何好处。如果有人亲眼目睹了他们的亲人经历这个过程,对家庭或本人来说都是一件非常痛苦的事情。我相信,任何能够减轻人类痛苦并延长健康寿命的事情都是一件好事。
自然寿命极限似乎在120岁左右。据我们所知,如果你观察那些幸运地活到这个年龄的人,这是一个我密切关注的领域。我没有发现任何尚不为人知的新的见解,但我认为这并非真正的极限。
这其中有两个步骤。一是总有一天治愈所有疾病,我认为我们将通过Isomorphic公司及其药物研发分公司正在进行的工作来实现这一目标。然而,这可能不足以让你活过120岁,因为随后还有自然系统衰退的问题,这指的是衰老,而不仅仅是具体的疾病。通常,那些活到120岁的人似乎并不是死于某种特定疾病;而是普遍的衰老。
因此,你需要更像是一种“返老还童”的方法,即使你的细胞恢复活力。干细胞研究,例如Altos公司正在进行的重置细胞时钟的工作,可能是解决方案的一部分。这似乎是可能的,但我仍然觉得这非常复杂,因为生物学是一个如此复杂的涌现系统。在我看来,你需要人工智能才能破解任何接近这个目标的东西。
材料科学:为未来发现新材料主持人汤姆斯: 关于材料科学,我简单问一个问题。在我离开之前,我不想不谈论你已经发现许多新材料或潜在材料的事实。我这里的数据是:目前已知的人类稳定材料有3万种,而你用新的AI程序发现了220万种。让我们大胆设想一下,因为我们不知道所有这些材料能做什么。我们不知道它们是否能够承受例如从冷冻箱中取出之类的环境。你梦想中在这个领域发现的材料是什么样的?一组新的材料?
德米斯·哈萨比斯: 嗯,我们的确在材料方面非常努力。对我来说,这就像我们能产生的下一个重大影响之一,就像AlphaFold在生物学领域的水平一样,只不过这次是在化学和材料领域。我梦想有一天能发现室温超导体。
主持人汤姆斯: 那会有什么作用?因为这也是一个广为流传的梗图……
德米斯·哈萨比斯: 人们谈论的是什么才能真正解决能源危机和气候危机。如果我们拥有廉价的超导体,我们就可以在没有任何能量损失的情况下将能量从一个地方输送到另一个地方。例如,我们可以将太阳能电池板安装在撒哈拉沙漠,并使用超导体将能量输送到欧洲等需要的地方。目前,这个过程效率低下,因为大量的能量在运输过程中以热量和其他方式损失。因此,我们还需要其他技术,例如电池,来储存能量,因为我们不能简单地将能量输送到需要的地方而不会浪费大量的能量。
此外,材料可以在改进电池技术方面发挥关键作用。我相信我们还没有开发出最佳的电池设计。也许我们可以探索材料和蛋白质的组合来提高能量储存能力。此外,我们可以实施碳捕获技术,修改藻类或其他生物以比目前的主持人汤姆斯: 你对中国正在做的事情印象深刻吗?我的意思是,DeepSeek这个……
德米斯·哈萨比斯: 新的模型……还不完全清楚他们依赖西方系统多少,你知道,无论是训练数据,有一些传闻,还有可能使用一些开源模型作为起点,但可以肯定的是,他们取得的成就令人印象深刻,我认为我们需要考虑如何保持西方前沿模型的领先地位,我认为目前它们仍然领先,但可以肯定的是,中国拥有非常强大的工程能力和规模化能力。
主持人汤姆斯: 让我最后问你一个问题。请展望一下拥有超级智能的世界是什么样子。
超级智能的愿景:哲学视角德米斯·哈萨比斯: 让我们从AGI开始,最后谈谈超级智能。
是的。我认为有两点。第一,我认为许多优秀的科幻作品可以作为有趣的模型,让我们来讨论我们想要什么样的星系或宇宙,我们想要走向什么样的世界。我一直最喜欢的是伊恩·班克斯的《文明》系列。我从90年代就开始读了。我认为这是一幅图景。它像是未来一千年的景象,但它在一个AGI后世界,AGI系统与人类社会和外星社会共存。
我们已经看到,人类基本上已经最大限度地繁荣发展,并扩展到银河系。我认为这是事情在积极情况下可能如何发展的一个很好的愿景。所以我把它举出来。
我认为我们还需要做的是,正如我前面提到的,需要认识到长期内将会发生什么。我认为需要一些伟大的哲学家出现——他们在哪里?我们需要下一代伟大的哲学家,堪比康德、维特根斯坦,甚至是亚里士多德。我认为我们需要他们来帮助引导社会迈向下一步,因为我相信AGI和人工智能超级智能将会改变人类和人类的生存状态。
主持人汤姆斯: Demis,非常感谢你抽出时间。很高兴能与你见面,希望很快再次见面。谢谢你。非常感谢。
如果我们采用不同于Transformer的方法,那么像Google Tensor、Broadcom(AVGO)等Customized芯片将一文不值,但英伟达(NVDA)的芯片仍然有价值,因为它是通用的。
“Yes, the NVIDIA H100 GPU is specifically optimized for transformer-based models due to its built-in "Transformer Engine" which leverages hardware and software optimizations designed to significantly accelerate the training and inference of transformer neural networks, particularly with its support for FP8 precision; making it highly efficient for large language models and generative AI applications. ”