这就是我们每天在做的事情。 主持人 但无论是内部还是外部,对 OpenAI 从非营利研究实验室转变为营利性公司都有很多反对声音。你的团队正处于这一转变的核心。你们正在开发这些新的营利性产品,虽然还没有完全实现 200 美元计划的目标,但假设你们做到了,你们是如何应对的?我的意思是,我不得不想象你的团队在这方面也存在一些推拉和矛盾。 Kevin Weil 其实并没有。这实际上是其中一个在外部讨论得更多的问题,而在内部并没有人为此感到焦虑,因为事情其实很简单明了。 Sam 已经多次提到,OpenAI 最初是一个非营利组织,当时的想法是由一小群人逐步构建 AGI(通用人工智能)。顺便说一下,当时没有人相信这是可能的。所以有一群疯狂的人试图构建 AGI,而其他人则觉得:「好吧,你们随便折腾吧。」 然后,当他们真正开始取得突破时,比如 GPT-1 和 GPT-2,很明显需要大量的资金和计算资源,这显然与非营利模式不太相符。因此,为了维持公司的发展,最简单的做法就是转变模式。 记住,那时的 OpenAI 还不是我们今天所认为的 OpenAI。当时,这个小小的团队感觉到他们看到了一些世界尚未意识到的东西,于是他们决定成立一个营利性实体作为公司的一部分,以便能够接受资金支持,从而继续推进使命。 现在公司已经发展壮大了,显然我们已经成为一家更大的公司。现在人们觉得奇怪的是,这个非营利组织拥有一个越来越大的营利性实体。 其实,这个想法很简单,就是诚实地面对现状,尝试进行重组。顺便说一下,这种重组实际上保留了非营利性质。 这是我们使命中非常重要的一部分。我们认为在医疗、教育等领域,我们可以做很多有益的事情。目标是让非营利组织在整个公司中拥有有意义的股份,并成为一个能够在世界上做很多好事的实体。 主持人 我认为最大的恐惧是关于安全,对吧?OpenAI 一直非常直言不讳地表示需要一些监管。在接下来的四年里,您希望在监管方面看到哪些事情? Kevin Weil AI 在与其他受监管行业接触时已经受到监管,对吧?每当 AI 与医疗领域交叉时,AI 必须遵守医疗法规。每当 AI 与法律领域交叉时,AI 必须遵守法律规则。顺便说一下,这是应该的。因此,AI 已经在很多方面受到监管,就像任何在这些领域的产品、服务或实体一样。 我们一直表示我们愿意接受监管。我认为我们只需要监管,但不要意外地扼杀一个仍处于早期阶段的新兴行业。 主持人 昨天我采访了 Anthropic 的 Dario,他和你处于同样的位置,他说,他认为到 2027 年,AI 在大多数或所有事情上都会比人类做得更好。这是 OpenAI 的立场吗?这是你在实验室中看到的情况吗?这个问题的第二部分是,你对此感到兴奋的是什么?我们应该担心什么,是否需要躲到达沃斯的地堡里去? Kevin Weil 是的,很难确定一个具体的日期。这是研究,这也是在 OpenAI 或 Anthropic 这样的地方工作与我在其他地方工作的不同之处之一。我们公司有数百人从事研究,试图揭示人类从未了解过的东西,这在很多方面都是学术风格的研究。因此,很难确定具体的时间。 我之前提到过,从排名第一百万的程序员到排名第一千的程序员,再到排名第 175 的程序员,只用了三到四个月的时间。
我们正处于一个非常陡峭的发展轨迹上。
我甚至不确定是否会到 2027 年,我认为可能会更早。 至于我倾向于如何看待这个问题,我认为应对这一浪潮的最佳方式实际上是使用 AI。如果你置身事外,阅读大量文章,你可能会感到非常焦虑和害怕,但如果你真正使用它,你会发现它在日常生活中以这些方式帮助你,尽管它在某些方面还不完美。 你仍然可以感受到它在哪些方面变得更好,哪些方面还需要改进。然后你实际上就参与了未来 10 年将发生的变化。我认为这是正确的方式,因为这也意味着,最终无论是监管还是制定社会标准,都将由我们所有人来决定,对吧? 使用它的人们将决定这些事物应该如何发展。使用它的人越多,实际了解它的人就越多,我们在未来几年经历巨大变化时,得到的答案也会更好。 主持人 如果我们击中 AGI。而人类并不真正需要做很多这项工作,你打算用你的空闲时间做什么?听说你会跑步? Kevin Weil 我跑步,我骑自行车,我有三个疯狂的孩子,很疯狂。 Kevin Weil 是业余跑者 我不知道,我认为人们在生活中需要一个使命,我认为这不会因为 pre AI,post AI而改变什么。我个人不是那种认为我们都会得到 UBI(编者注:全民基本收入),就一直坐在那里看书之类的人,我认为人们需要追求更宏大的东西。 所有这些变化,就像你回顾社会多年来经历的任何重大变化一样,其中许多变化是由于技术进步带来的,总是有很多人预言灾难,预言未来的厄运,比如汽车、收音机、电视、电力、印刷术,但人类是非常适应变化的。 我认为我们没有人愿意回到那些发明之前的日子。我们对 AI 也会有同样的感觉。它将改变世界,它已经在改变世界了,但我认为它将带来积极的变化。我不认为当我们经历这一切之后,我们会说:「我真的想回到过去,那时我不得不花一个小时填写我孩子的足球报名表。」所以我对未来充满期待。 主持人 好的,我要问最后一个问题。你曾为一些非常独特的领导者工作过。你在 Twitter 时为 Jack Dorsey 工作,在 Meta 时为 Mark Zuckerberg 工作,现在为 Sam Altman 工作,我本来想让你给他们排个名。 Kevin Weil 哇噢。 主持人 要不来说一下,谁开的会议最好? Kevin Weil 谁开的会议最好,我天呢。 主持人 这是一件非常人性化的事情,我们喜欢与人会面。 Kevin Weil 我觉得 Mark 比 Sam 更有条理,也比 Jack 更有条理。Mark 总是带着一个假设而来,无论是什么,他都会深入思考,Mark 非常有野心,但他总是有一个从这儿到那儿的路线图在脑海中。 我喜欢与他共事的一点是,他总是愿意接受反馈。你可以说「我认为你错了,原因如下」,但你最好准备好迎接随之而来的辩论,因为他有他为什么这样想的理由,你可以说服他你是对的而他是错的,但这需要你有充分的准备。 Sam 更像一个远见者。我认为 Sam 是我见过的最优秀的人。人类通常不擅长指数思维,我们不太擅长从指数曲线中推断出变化的速度。 Sam 是我见过的最擅长这一点的人,他会说:「好吧,如果这真的是指数级的,那么三年后,它不会是这种线性趋势。」这是我们人类通常会犯的错误。实际上,它会达到这个水平。 这就是为什么我们要建立一家公司,花费 5000 亿美元构建 AI 基础设施。因为 Sam 比我们其他人更擅长预测指数级变化,他看到了这些结果,并且正在做我们需要做的事情来为此做好准备。
达沃斯世界经济论坛正在瑞士召开,不必多说,人工智能是本届会议的重要主题。 全面超越:2027 年的确可能会有全面超越人类的智能,不过,也可能更早。 新产品:o3 会推出,包括 o3 迷你版,但人形机器人不会在今年。 多边合作:无论是苹果还是微软,都是在理解、承载 AI 的同时,借由他们的产品走向千万用户面前的渠道。跟他们的合作是打开更多扇门。 亏损问题:用户总是希望尽可能「压榨」订阅计划的价值,20 美元的月费,要带来超过 20 美元的价值。200 美元的付费计划受到高级用户的欢迎,使用量也很大,每月的计算资源使用量实际上超过了 200 美元的价值。不过未来成本会继续下降,这个模式不会永远持续。 Sam Altman 是最好的人类。 以下为访谈对话整理,内容有所删减。这些趋势令人难以置信,我不知道你在其他地方是否能看到这样的情况:成本下降了 99%,同时这些模型变得更快、更智能、更安全。 想必大家对 GPT-4 都不陌生。你们可能默认在 ChatGPT 中使用它。去年年底,我们宣布了一项研究突破,并将其应用到了一个名为 o1 的模型中。 这个命名方式实际上完全不同,部分原因是这个模型能够做到 GPT-4 无法做到的事情——它能够进行推理。当然,GPT-4 已经非常出色了。它知道很多东西,你可以问它问题,它会迅速给出答案。 而 O 系列模型,比如 o1 及其后续版本,实际上具备更深层次的思考能力。
举个例子,如果我问你一个难题,比如让你做一个填字游戏,你不会直接开始给出答案,对吧?
这就是 ChatGPT 未来能够为你做的事情。 我们不仅在开发我刚才提到的推理能力,还在研究所谓的多模态功能,让 ChatGPT 不仅能理解你输入的文字,还能以我们人类互动的方式进行交流。它可以与你对话,你也可以与它对话,而且它能理解大约 50 到 100 种语言。 它还能「看」,比如你可以用手机摄像头对准某个场景,它能理解发生了什么;它也能查看你的浏览器屏幕,像你我一样理解浏览器中的内容。它不是通过解析 HTML 来实现的,而是通过观察屏幕上的视觉元素来理解它们的含义。比如,这是一个搜索框,如果我点击这里,会发生什么,等等。 一旦你掌握了这些基本功能,你就可以开始构建这些智能代理了。这就像我们在为人们解决问题,帮你节省那些本来会被琐事占据的时间,让你能去做真正重要的事情。 主持人 让我稍微回顾一下,我在想象一个工具。我想象的是这样的,你告诉我这是否是你们正在构建的东西:它能看见我电脑屏幕上的内容,我告诉它「去填写我孩子的午餐表」。 也许我需要稍微具体一点说明,然后我按下回车键,它就能去完成这个任务。它能提交吗?这个想法是它不仅能够执行这个动作,还能更进一步真正完成这个动作吗? Kevin Weil 是的,而且关于发布日期,我可以告诉你一个更好的消息:我们已经发布了部分这样的功能。
然后你会看到所有这些外部文章,有时候情况恰恰相反,真正重要的事情并不总是被报道出来,你应该关注那些。 我很幸运能够参与几家高速增长的公司。我还没有遇到过一家公司,在早期阶段没几个关键人物、对公司的发展起到巨大作用。「天哪,我加入时公司只有 20 人,现在有 200 或 2000 人了,情况有点不同了,我准备好迎接新的挑战了。」 我认为这完全没问题。 我们的工作是尊重他们,感谢他们所做的贡献,同时招聘世界上最优秀的人才,继续朝着使命前进。
这就是我们每天在做的事情。 主持人 但无论是内部还是外部,对 OpenAI 从非营利研究实验室转变为营利性公司都有很多反对声音。你的团队正处于这一转变的核心。你们正在开发这些新的营利性产品,虽然还没有完全实现 200 美元计划的目标,但假设你们做到了,你们是如何应对的?我的意思是,我不得不想象你的团队在这方面也存在一些推拉和矛盾。 Kevin Weil 其实并没有。这实际上是其中一个在外部讨论得更多的问题,而在内部并没有人为此感到焦虑,因为事情其实很简单明了。 Sam 已经多次提到,OpenAI 最初是一个非营利组织,当时的想法是由一小群人逐步构建 AGI(通用人工智能)。顺便说一下,当时没有人相信这是可能的。所以有一群疯狂的人试图构建 AGI,而其他人则觉得:「好吧,你们随便折腾吧。」 然后,当他们真正开始取得突破时,比如 GPT-1 和 GPT-2,很明显需要大量的资金和计算资源,这显然与非营利模式不太相符。因此,为了维持公司的发展,最简单的做法就是转变模式。 记住,那时的 OpenAI 还不是我们今天所认为的 OpenAI。当时,这个小小的团队感觉到他们看到了一些世界尚未意识到的东西,于是他们决定成立一个营利性实体作为公司的一部分,以便能够接受资金支持,从而继续推进使命。 现在公司已经发展壮大了,显然我们已经成为一家更大的公司。现在人们觉得奇怪的是,这个非营利组织拥有一个越来越大的营利性实体。 其实,这个想法很简单,就是诚实地面对现状,尝试进行重组。顺便说一下,这种重组实际上保留了非营利性质。 这是我们使命中非常重要的一部分。我们认为在医疗、教育等领域,我们可以做很多有益的事情。目标是让非营利组织在整个公司中拥有有意义的股份,并成为一个能够在世界上做很多好事的实体。 主持人 我认为最大的恐惧是关于安全,对吧?OpenAI 一直非常直言不讳地表示需要一些监管。在接下来的四年里,您希望在监管方面看到哪些事情? Kevin Weil AI 在与其他受监管行业接触时已经受到监管,对吧?每当 AI 与医疗领域交叉时,AI 必须遵守医疗法规。每当 AI 与法律领域交叉时,AI 必须遵守法律规则。顺便说一下,这是应该的。因此,AI 已经在很多方面受到监管,就像任何在这些领域的产品、服务或实体一样。 我们一直表示我们愿意接受监管。我认为我们只需要监管,但不要意外地扼杀一个仍处于早期阶段的新兴行业。 主持人 昨天我采访了 Anthropic 的 Dario,他和你处于同样的位置,他说,他认为到 2027 年,AI 在大多数或所有事情上都会比人类做得更好。这是 OpenAI 的立场吗?这是你在实验室中看到的情况吗?这个问题的第二部分是,你对此感到兴奋的是什么?我们应该担心什么,是否需要躲到达沃斯的地堡里去? Kevin Weil 是的,很难确定一个具体的日期。这是研究,这也是在 OpenAI 或 Anthropic 这样的地方工作与我在其他地方工作的不同之处之一。我们公司有数百人从事研究,试图揭示人类从未了解过的东西,这在很多方面都是学术风格的研究。因此,很难确定具体的时间。 我之前提到过,从排名第一百万的程序员到排名第一千的程序员,再到排名第 175 的程序员,只用了三到四个月的时间。
我们正处于一个非常陡峭的发展轨迹上。
我甚至不确定是否会到 2027 年,我认为可能会更早。 至于我倾向于如何看待这个问题,我认为应对这一浪潮的最佳方式实际上是使用 AI。如果你置身事外,阅读大量文章,你可能会感到非常焦虑和害怕,但如果你真正使用它,你会发现它在日常生活中以这些方式帮助你,尽管它在某些方面还不完美。 你仍然可以感受到它在哪些方面变得更好,哪些方面还需要改进。然后你实际上就参与了未来 10 年将发生的变化。我认为这是正确的方式,因为这也意味着,最终无论是监管还是制定社会标准,都将由我们所有人来决定,对吧? 使用它的人们将决定这些事物应该如何发展。使用它的人越多,实际了解它的人就越多,我们在未来几年经历巨大变化时,得到的答案也会更好。 主持人 如果我们击中 AGI。而人类并不真正需要做很多这项工作,你打算用你的空闲时间做什么?听说你会跑步? Kevin Weil 我跑步,我骑自行车,我有三个疯狂的孩子,很疯狂。