马斯克:AI的海啸即将席卷而来

老魏_
楼主 (北美华人网)
“地球启蒙者”马斯克:与AI的海啸相比,DOGE微不足道。
刚离开DOGE,马斯克在最近的一次采访中发出了令人震惊的警告:人类正处于“智能爆炸”的边缘,一场“千尺人工智能海啸”即将席卷而来,让政府改革如同“清理一片凌乱的海滩”般微不足道。他断言,人工智能超级智能(超越人类所有能力)极有可能在2025年或2026年实现,如果发展顺利,它将催生一个比当今经济规模“数千倍甚至数百万倍”的未来文明。面对这一巨变,马斯克强调“严守真理”是确保人工智能安全的核心基石,并预测类人机器人的数量将远远超过人类。
近日,美国创业加速器Y Combinator(YC)在旧金山举办首届AI创业学校,邀请了埃隆·马斯克、OpenAI CEO阿尔特曼等多位AI行业重量级人物。
刚刚结束为期130天的美国政府效率部(DOGE)特殊雇员任期的马斯克在接受采访时坦言,这段经历只是一次“有趣的支线任务”,但在即将到来的人工智能革命面前,它的意义显得微不足道。他把政府效率部门的工作比作“清理海滩”,而即将到来的人工智能则像是一场“千尺高的海啸”。
整顿政府就像……海滩脏兮兮的,到处都是针头、粪便和垃圾。但还有一道1000英尺高的水墙,那就是人工智能海啸。当一场1000英尺高的海啸即将袭来时,清理海滩还有什么意义呢?意义不大。
马斯克预测,数字超级智能可能在今年或明年到来,其智能程度将超越人类,而未来类人机器人的数量将远超人类,可能达到人类总数的5到10倍。他大胆预测,人工智能驱动的经济规模可能比现在大数千倍甚至数百万倍,而人类智能的占比可能不到1%。以下是他演讲的一些要点:
• 马斯克于5月28日宣布离开DOGE,结束为期130天的特殊政府雇员任期,并表示自己“回归主线任务”;
• 马斯克将政府效率部门的工作比作“清理海滩”,而即将到来的人工智能则像是一场“千尺高的海啸”。当后者即将到来时,前者的意义相对微乎其微;
• 他预测数字超级智能可能在今年或明年到来,其智能程度将超过人类,并强调“如果今年不发生,那么明年一定会发生”;
• 未来人形机器人的数量将远远超过人类,可能是人类的5倍甚至10倍;
• 预测人工智能驱动的经济规模将比现在扩大数千倍甚至数百万倍,推动文明走向卡尔达肖夫II型(恒星能量级),人类智力占比可能降至1%以下;
• 马斯克强调,严格遵守事实是人工智能安全的最重要基石,强迫人工智能相信不真实的事情极其危险;
• 回顾SpaceX的早期,在连续三次失败后第四次火箭发射的成功是“生死攸关的大事”,而特斯拉的融资也是在2008年破产前的最后一刻完成的。
• DOGE 的使命已完成:政治噪音太大,回归‘主要使命’。
马斯克在一次采访中坦言,在华盛顿特区的经历让他深刻体会到“政治中的信号噪音很可怕”。他将自己在华盛顿特区的工作描述为“一项有趣的副业”,但最终决定“回归主业——打造科技,这是我热爱的事情”。
这位亿万富翁解释了他离开政府职位的根本原因:“修复政府就像清理海滩——它很脏,到处都是针头、粪便和垃圾。但与此同时,还有一堵千英尺高的水墙,那就是人工智能海啸。如果你面对的是一千英尺高的海啸,清理海滩真的有多重要?其实没那么重要。” AI超级智能即将到来:它必将在今年或明年到来。
马斯克对数字超级智能的到来做出了非常明确的预测。他表示:“我相信我们已经非常接近数字超级智能了。即使今年不发生,明年也一定会发生。”
他所定义的“数字超级智能”是“在任何方面都比人类更聪明的智能”。马斯克预测,人工智能将推动经济规模实现指数级增长——“不是比现在经济规模大十倍,而是大数千倍甚至数百万倍”。 人工智能将以难以想象的程度深刻改变未来……假设我们没有误入歧途,人工智能不会毁灭我们和它自己,你最终看到的不会是一个比现在大十倍的经济体。最终,如果我们……后代(主要是机器后代)成为卡尔达肖夫II型文明或更高级的文明,我们谈论的将是一个比现在大数千倍甚至数百万倍的经济体。 他进一步阐述了未来人类智力的地位:“在某个时候,人类智力所占的比例会变得非常小,在某个时候,人类智力的总和将不足所有智力的1%。” xAI目前正在训练Grok 3.5,并计划在六个月内构建一个超级集群。
马斯克在接受采访时透露,xAI 目前正在训练 Grok 3.5,“专注于推理能力”。 此外,马斯克还以去年搭建训练超级集群的例子,展示了xAI标志性的“第一性原理”思维和极致的执行能力。当时,供应商预估完成一个10万块H100 GPU集群需要18-24个月,但xAI必须在6个月内完成。 据 ZeroHedge 报道,xAI 正在寻求 43 亿美元的股权融资,这将与 50 亿美元的债务融资相结合,涵盖 xAI 和社交媒体平台 X。 硬件竞赛:从零到 100,000 个 GPU 的工程奇迹。
马斯克用第一性原理思维解决了AI训练中的硬件难题。当供应商告诉他们,完成10万块H100 GPU的训练超级集群需要18到24个月时,马斯克的团队将其压缩到6个月。
他们租下了位于孟菲斯的一家废弃的伊莱克斯工厂,并通过租赁发电机解决了150兆瓦的电力需求,租用了全美四分之一的移动制冷设备,并使用特斯拉Mega Packs来平滑训练过程中的电力波动。马斯克甚至亲自参与了布线工作,“睡在数据中心里”。 目前,训练中心拥有 150,000 台 H1、50,000 台 H200 和 30,000 台 GB200,第二个数据中心即将上线,拥有 110,000 台 GB200。 多重未来愿景:机器人军团、星际文明。
马斯克预测,人形机器人的数量将至少是人类的五倍,“甚至可能是十倍”。他承认,由于担心“终结者”会成为现实,他曾一度推迟在人工智能和机器人领域的布局,但他最终意识到:“无论我做不做,它都会发生。你要么是旁观者,要么是参与者。我宁愿做参与者。” 马斯克在更宏大的愿景中,将人类文明置于卡尔达肖夫指数的框架内。他认为,人类目前仅利用了地球1-2%的能源,远未达到I型文明的水平。成为多行星物种是将意识扩展到星际的关键一步,“这将极大地延长文明或意识的潜在寿命”。 马斯克表示,SpaceX计划用大约30年的时间向火星转移足够的物质,使其能够自给自足,“即使来自地球的补给船停止运行,火星也能继续发展和繁荣。” ================================================================= 采访全文如下(AI翻译)。 伊隆·马斯克 我们正处于智能爆炸的非常非常早期的阶段。成为跨行星物种可以极大地延长文明、意识或智能(无论是生物智能还是数字智能)的寿命。我相信我们离实现数字超级智能已经非常近了。即使今年不发生,明年也一定会发生。 YC 首席执行官兼总裁 Garry Tan [音乐] 让我们用掌声欢迎埃隆·马斯克。[掌声] 埃隆,欢迎来到AI创业学院。今天能邀请到您,我深感荣幸。从SpaceX、特斯拉、Neuralink到xAI等等,您一路走来,一路走来。在做这些之前,您的人生中是否有过某个时刻让您觉得“我必须创造一些伟大的东西”?是什么促使您做出这个决定的? 伊隆·马斯克 我最初并不认为自己能创造出什么伟大的东西。我只是想尝试做点有用的事,但我并不相信自己能做出特别伟大的东西。从概率的角度来看,这似乎不太可能,但我至少想尝试一下。 加里·谭 你现在面对的是满屋子的人,他们都是技术工程师,其中不乏一些冉冉升起的顶尖人工智能研究人员。 伊隆·马斯克 嗯。我觉得我们应该……我更喜欢用“工程师”而不是“研究员”这个词。我的意思是,如果基础算法上有任何突破,那就算研究,但除此之外,都是工程。 加里·谭 也许我们可以从很久以前说起。我的意思是,你现在面对的是一个满是18到25岁年轻人的房间。随着创始团队越来越年轻,这个房间的年轻人也越来越年轻。你能设身处地为他们着想吗?你18、19岁的时候就学会编程了,甚至还萌生了Zip2的第一个想法。当时你是什么感受? 伊隆·马斯克 是的,1995年,我面临一个选择:要么去斯坦福大学攻读硕士,然后攻读博士学位,研究材料科学领域,研究用于电动汽车的超级电容器,本质上是为了解决电动汽车的续航里程问题;要么深入研究当时大多数人闻所未闻的领域,叫做“互联网”。我和材料科学系的比尔·尼克斯教授聊了聊,我问他,我能休学一个学期吗?因为这个(互联网)可能会失败,到时候我就得回学校继续学业了。 然后他说,这可能是我们最后一次谈话了。他说得对。当时我觉得失败的可能性比成功的可能性要高得多。然后在1995年,我写了……基本上,我认为是最早的互联网地图、路线指南、白页和黄页之一。
我自己写了那段代码,甚至没有用Web服务器。我直接访问了端口,因为我买不起,也买不起T1线路。最初的办公室在帕洛阿尔托的谢尔曼大道。楼下好像就有一家ISP(互联网服务提供商)。所以我在地板上钻了一个洞,直接把以太网电缆连接到ISP。 后来,我的兄弟和另一位联合创始人格雷格·库里(Greg Curry)也加入了我,格雷格·库里现在已经去世了。我们几乎负担不起当时的住房,所以……办公室租金每月500美元,我们睡在办公室,然后去佩奇米尔路(Page Mill Road)的基督教青年会(YMCA)洗澡。是的,我们最终在早期创立了一家还算有用的公司——Zip2。我们确实开发了许多非常棒的软件技术,但在某种程度上,我们被传统媒体公司“俘获”了,因为像奈特-里德出版公司(Knight-Ridder)和《纽约时报》这样的公司既是投资者,又是客户,并且还担任董事会成员。 所以他们总是想用一些毫无意义的方式使用我们的软件。我想直接面向消费者。简而言之,我不想详细谈论Zip2,但核心是我真的想在互联网上做一些有用的事情。因为我有两个选择:要么读博士学位,看着别人构建互联网;要么以某种小规模参与互联网的建设。我心想,我想我可以先尝试一下,如果失败了,我可以回去读研究生。总之,结果相当成功。它以大约3亿美元的价格出售。 这在当时可是一大笔钱。现在我觉得一家人工智能初创公司的最低起步价得是10亿美元。就好像……现在独角兽公司太多了,几乎像一群独角兽,你知道,独角兽的估值就得有10亿美元。 加里·谭 从那时起,通货膨胀就出现了,所以货币实际上贬值了不少。 麝香 是的。我的意思是,在1995年,你可能只花5美分就能买一个汉堡包?嗯,这并没有那么夸张,但我的意思是,确实确实出现了大量的通货膨胀。但我的意思是,现在围绕人工智能的炒作相当高,就像你所看到的。你知道,你会看到一些成立不到一年的公司,有时估值高达数十亿美元甚至数百亿美元。我想其中一些可能会成功;它们真的有可能成功。但看到其中一些估值确实令人震惊。那么你怎么看?我的意思是, 加里·谭 我个人非常看好人工智能,实际上非常乐观。所以,我认为在座的各位都将创造巨大的价值,这些价值应该被全球十亿人所利用。我们甚至还没有触及表面。我非常喜欢那个互联网故事;即使在当时,你也和在座的各位很像,因为你知道,所有传统媒体公司的CEO都认为你懂互联网。而现在,对于那些不了解人工智能正在发生的事情的广大世界——商界,或者说整个世界——他们将依靠在座的各位,原因完全相同。听起来你似乎知道……有哪些具体的教训?听起来其中之一就是不要放弃对董事会的控制权,或者要非常小心地聘请一位真正优秀的律师。 麝香 我认为我第一家创业公司最大的错误就是让传统媒体公司掌握了太多股东和董事会的控制权,这不可避免地导致他们从传统媒体的角度看待问题,所以他们会让你做一些在他们看来合理,但从新技术的角度来看实际上是不合理的事情。我需要指出的是,我最初并没有打算创业。我……我试图在网景公司找一份工作。我把简历投给了网景公司。马克·安德森知道这件事。 但我想他实际上根本没看过我的简历,而且也没人回复。所以之后,我试着在网景的大厅里闲逛,看看能不能“碰上”人,但我太害羞了,不敢跟任何人说话。所以我心想,天哪,这太荒唐了。后来我想,我自己写软件,看看效果如何。所以,我的想法不是“我想创办一家公司”。我只是想参与构建互联网的一部分。因为我在互联网公司找不到工作,所以我必须创办一家互联网公司。简而言之,是的。是的。我的意思是,人工智能将深刻地改变未来。其程度很难估计,但你知道,就经济而言,假设我们没有走错路, 如果人工智能不会将我们连同自身一起消灭,那么你最终会看到一个不仅比现在经济规模大十倍的经济,而且最终,如果我们成为,比如说,无论我们未来的机器后代是什么,或者主要是机器后代,一个卡尔达肖夫指数2级或更高的文明。我们所说的经济规模将是今天的数千倍,甚至数百万倍。所以,是的,我的意思是,我在华盛顿特区的时候确实有一点预感, 被批评为消除浪费和欺诈,这听起来像是一个有趣的支线任务,至少从支线任务的角度来看是这样。但现在是时候回到主线任务了。是的,是时候回到主线任务了。嗯,我觉得,你知道,这有点像……政府改革有点像……海滩真的很脏,到处都是针头、粪便和垃圾;你想清理海滩,但同时还有一堵千英尺高的水墙——这就是人工智能海啸——如果一千英尺高的海啸即将袭来,清理海滩还有什么意义呢?意义不大。哦,很高兴你回到了主线任务。这非常重要。 是的,回到正题上。打造科技,这才是我喜欢做的。干扰太多了。政治信号噪音实在太糟糕了。 加里·谭 所以,我的意思是,我住在旧金山,所以你不需要告诉我两次(我也明白)。 麝香 是的,华盛顿特区就像,你知道,我猜整个华盛顿都与政治有关,但如果你想制造火箭或汽车,或者如果你想开发能够可靠编译和运行的软件,那么你必须最大限度地追求真理,否则你的软件或硬件将无法正常工作。这就像你不能在数学上作弊;数学和物理是严格的裁判。所以我习惯了在一个最大限度地追求真理的环境里,这绝对不是政治。所以,无论如何,我很高兴回到科技领域。我想…… 加里·谭 我对Zip2的那个时刻有点好奇。你当时有几亿美元,还是套现了几亿美元? 伊隆·马斯克 我的意思是,我有 2000 万,对吧? 加里·谭 好的。所以,至少你解决了资金问题。然后你基本上把钱放在一边,继续押注,并且继续参与X.com的运营,后来它变成了PayPal和Confinity(合并后)。 伊隆·马斯克 是的。我把筹码留在桌上了。 加里·谭 不是每个人都会这么做。这里很多人将来都要做出这样的决定。是什么促使你重新加入这场斗争? 麝香 我认为我们为 Zip2 开发了非常棒的技术,但从未得到充分利用。至少在我看来,我们的技术比雅虎或其他任何公司都好,但受到客户(媒体公司)的限制。所以我想做一些不受客户限制、直接面向消费者的事情。这促成了 X.com/PayPal 的诞生。本质上,X.com 与 Confinity 合并,我们共同创建了 PayPal。 事实上,PayPal“校友网络”(PayPal黑手党)可能比21世纪任何其他组织创建的公司都多。Infinity与X.com合并时,许多才华横溢的人聚集在一起。我当时就想……我在Zip2感觉有点受束缚,于是我想,好吧,如果我们不受束缚,直接面向消费者会怎么样?结果就是这样。 但是,是的,当我从Zip2拿到那张2000万美元的支票(指个人收入)时,我和四个室友住在一起,银行里只有大约1万美元。然后这张支票就寄给了我(真是难以置信)。真的寄给我了!突然间,我的银行存款从1万美元变成了2000万美元零1美元(2000万+1万美元)。我心想,还好(税后)。但后来我几乎把所有的钱都投进了X.com。就像你说的,几乎输光了所有筹码。 是的,在用了PayPal之后,我有点好奇为什么我们还没把人送上火星。我去NASA网站看看什么时候会把人送上火星,但没有日期。我以为只是在网站上很难找到。但事实上,当时并没有真正的火星计划。所以,你知道,说来话长,我不想在这里花太多时间,但是 加里·谭 我想我们都在认真倾听。 麝香 当时我正和朋友阿迪奥·雷西(Adeo Ressi)在长岛高速公路上行驶。我们是宾夕法尼亚大学的同学。阿迪奥问我离开PayPal之后打算做什么。我说,我不知道,也许我想做一些太空领域的慈善项目,因为我觉得我在这个领域做不了什么商业化的事情,这似乎是国家的专属领域。所以,你知道,我只是好奇我们什么时候会把人送上火星,就在那时,我发现,哦,网站上什么也没有,所以我开始深入挖掘。我肯定这里省略了很多,但我最初的想法是创建一个名为“火星生命”的火星慈善项目,把一个装有种子和脱水营养凝胶的小型温室送到火星,让它着陆,然后,你知道,在凝胶里加水,你就拍到了这张精彩的照片——红色背景下的绿色植物。 顺便说一句,很长一段时间我都不知道“money shot”(金钱镜头)这个词跟色情片有关(指关键的高潮镜头)。但无论如何,重点是,这应该是红色背景下绿色植物的精彩镜头,试图激励NASA和公众将宇航员送上火星。随着我了解得越来越多,我意识到,哦,对了,在那段时间里,我曾在2001年和2002年左右去俄罗斯购买洲际弹道导弹(ICBM),那可真是一次冒险。你知道,去见俄罗斯高级指挥官,然后说:“我想买一些洲际弹道导弹。” 这是为了进入太空。没错。不是为了炸死任何人,而是因为裁军谈判,他们不得不销毁一大批大型核导弹。所以我想,好吧,我们拿两枚,你知道,把核弹头拆下来,再加一个上面级,用于火星探测。 但感觉有点迷幻,你知道,大概是在2001年左右,我在莫斯科与俄罗斯军方谈判购买洲际弹道导弹的时候。当时真是太疯狂了。但他们还不断提高我的价格,所以这几乎和正常的谈判截然相反。所以我就想,天哪,这些东西真的越来越贵了。 后来我意识到,真正的问题并非缺乏登陆火星的意愿,而是根本不可能不超出预算就实现它,你知道,就连NASA的预算都负担不起。所以我决定创办SpaceX——SpaceX的成立是为了将火箭技术提升到能够将人类送上火星的水平。那是在2002年。 加里·谭 所以,创业并非你最初的打算。你只是想开始做一些你觉得有趣、人类需要的事情,然后,你知道,就像猫解开毛线球一样,毛线球逐渐松开,最终证明这笔生意可能非常赚钱。 麝香 现在确实盈利了,但当时火箭创业公司并没有成功的先例。虽然也有一些商业火箭公司尝试过,但都失败了。所以SpaceX成立的时候,其实是出于这样的心态:我觉得成功的几率不到10%,也许只有1%,我不知道。但如果一家初创公司不推动火箭技术的发展,那它肯定不会来自那些大型国防承包商,因为它们只是政府的附属品,而政府只想做一些非常常规的事情。所以,它要么来自初创公司,要么根本就不会成功。所以,即使成功率很低,也比没有机会强。所以,是的,当我在2002年年中创立SpaceX时,我就预料到了失败。我的意思是,我提到了大约90%的失败率,即使在招聘人员的时候,我也没有试图粉饰它一定会成功。 我说我们可能完蛋了。但如果把人送上火星是推进技术的唯一途径,那么我们完蛋的可能性只有十分之一。后来我最终成了火箭的总工程师,不是因为我想当,而是因为我招不到有能力的人。所以,没有优秀的高级工程师愿意加入,因为他们觉得风险太大;你会完蛋的。所以我成了火箭的总工程师。你知道,前三次发射确实都失败了。所以这是一个学习的过程。幸运的是,第四次成功了。但如果第四次没成功,我的钱就花光了,一切就彻底完了。所以那是一个非常危险的处境。 如果第四次猎鹰发射失败,我们就完了,加入之前那些火箭初创公司的坟墓。所以,我对成功概率的估计并不算太离谱。我们只是出乎意料地成功了。特斯拉即将同时出现。2008年是艰难的一年。因为在2008年年中,或者说2008年夏天,SpaceX的第三次发射失败了;我们经历了三次连续的失败。特斯拉的融资也失败了。所以特斯拉很快就破产了。当时的感觉就像,天哪,这太糟糕了。这将成为傲慢的警示故事。 Garry Tan 20:00 当时很多人可能都会问,马斯克是个搞软件的,为什么他要做硬件?为什么……是啊,他为什么选择做硬件,对吧? 麝香 是的,100% 肯定。你可以看看当时的媒体,因为那些报道现在还能在网上找到。他们总是叫我“互联网人”。这个“互联网人”,也就是那个被称为“傻瓜”的人,试图创办一家火箭公司。所以你知道我们经常被嘲笑。这听起来确实很荒谬;一个互联网人创办一家火箭公司听起来不像是一个成功的秘诀。 说实话。所以我不怪他们。我当时想,是的,你知道,这听起来确实不太可能;我同意这不太可能。但幸运的是,第四次发射成功了,然后NASA授予我们一份空间站的供应合同。我记得那是在12月22日左右,或者就在圣诞节前。因为即使第四次发射成功也不足以保证成功。我们还需要一份大合同才能生存下去。所以,我接到了NASA团队的电话;他们真的说要授予我们一份空间站供应合同。我当时……脱口而出:“我爱你们。”你知道,这通常不是他们期望听到的话。 因为通常情况下,你知道,一切都很平静,但当时我想,‘天哪,这拯救了公司。’然后,我们在最后一天,也就是最后一小时,也就是2008年12月24日下午6点,结束了特斯拉的融资。如果那轮融资没有结束,圣诞节后两天我们就不得不推迟发工资了。所以,2008年底真是令人紧张。 Garry Tan 22:03 从您在PayPal和Zip2的经历,到加入这些核心硬件初创公司,一个共同点就是能够找到并最终吸引这些特定领域最聪明的人才……您知道,我指的是这里的一些人,他们中的一些人甚至还没有管理过任何人。他们的职业生涯才刚刚开始。您想对那些从未做过这些事情的埃隆说些什么? 以伦 22:33 我通常认为你应该尽可能多地做一些有用的事情。这听起来可能有点陈词滥调,但做有用的事情真的很难,尤其是当它对很多人有用的时候。例如,总效用曲线下的面积是你对同胞的有用程度乘以多少人?这就像“真正的工作”的物理定义。做到这一点极其困难。我相信,如果你决心做“真正的工作”,你成功的机会就会高得多。就像,不要追求荣耀,而要追求工作。 Garry Tan 23:07 你如何判断这是“真正的工作”?是通过外部反馈吗?比如,别人如何看待它,或者你的产品对人们有多大用处? 以伦 23:23 你知道,当你招聘员工时,你看重什么?比如,你是在找人还是他们在找你,这是另一个问题。我的意思是,就你的最终产品而言,你只需要考虑,如果这个产品成功了,它会对多少人有多大用处?这就是我的意思。然后,你会尽你所能,无论你是CEO还是初创公司的任何角色,你都会尽一切努力取得成功,就像不断打破你的自我,将责任内化。一个主要的失败模式是当自我与能力的比率大于1时。你知道,如果你的自我相对于你的能力过高。
那么,你基本上就切断了与现实的反馈回路。用人工智能的术语来说,你会打破你的强化学习(RL)回路。所以,你不想打破你的回路;你想要一个强大的RL回路,这意味着无论任务是崇高的还是平凡的,都要内化责任,并最大限度地减少自我。所以,我的意思是,这就是为什么我实际上更喜欢用“工程”这个词而不是“研究”这个词。我更喜欢这个词,而且我不想把xAI称为实验室。 我只想让它成为一家公司。就像,无论用最简单、最直接的措辞,最好是低调的自我;这些通常都是好的方向。你只想紧紧抓住现实。这是一件非常重要的事情。 Garry Tan 25:01 我想在座的各位都对您在运用第一性原理方面所发挥的模范作用深感敬佩。您如何确定自己的“现实”?这似乎是其中至关重要的一部分。那些从未创造过任何东西的人,非工程师,比如一些记者,有时会批评您。但显然,您周围还有另一群人,他们是建设者,拥有非常高的……成就曲线下面积。人们应该如何看待这一点?哪些方法对您有效?您会如何将这些传达给……比如说,您的孩子?您会如何告诉他们如何在这个世界上站稳脚跟?例如,如何基于第一性原理构建一个可预测的世界观。 马斯克 25:57 物理学工具对于理解任何领域并取得进展都极其有用。第一性原理明确地指的是将事物分解为最可能正确的基本公理元素,然后尽可能逻辑清晰地进行推理,而不是通过分析或类比进行推理。还有一些简单的事情,比如在极限下思考;就像你推断最小化这个东西或最大化那个东西一样,在极限下思考非常有帮助。我使用所有的物理学工具。 它们适用于任何领域,就像一个超级大国。以火箭为例,你可能会问,一枚火箭应该花多少钱?人们通常采用的方法是查看火箭的历史成本,然后假设任何新火箭的成本都与之前的火箭大致相同。第一性原理的方法是研究火箭的构成材料。无论是铝、铜、碳纤维、钢还是其他什么,然后,比如说,这枚火箭的重量是多少?它的组成元素是什么?它们有多重?这些组成元素每公斤的价格是多少?这就确定了火箭成本的真正底线。它可以逐渐接近原材料成本。 然后你会意识到,哦,实际上,火箭的原材料仅占历史火箭成本的1%或2%。因此,如果原材料成本仅为1%或2%,那么制造过程必然非常低效。这是对火箭成本优化潜力的第一性原理分析。这还是在考虑可重用性之前。以人工智能为例,我想是去年,当xAI试图构建一个训练超级集群时,我们去找供应商,说(那是去年年初)我们需要10万个H100(GPU)来进行连贯训练。 他们估计完成这个项目需要18到24个月。我说,我们需要在6个月内完成。否则,我们就没有竞争力了。那么,如果分解开来,需要什么呢?你需要一栋建筑,需要电力,需要制冷。我们没有时间从头开始建造一栋建筑。所以我们必须找到一栋现成的建筑。因此,我们在孟菲斯找到了一家曾经生产伊莱克斯产品的废弃工厂。但它的输入功率是15兆瓦,而我们需要150兆瓦。 因此,我们租用了发电机,并将它们放置在建筑物的一侧,然后我们需要冷却。因此,我们租用了美国大约四分之一的移动冷却容量,并将冷却器放置在建筑物的另一侧。这仍然没有完全解决问题,因为训练过程中的功率波动非常大。因此,功率可能在 100 毫秒内下降 50%,发电机无法跟上。因此,我们将其与 Tesla Megapacks(大型电池组)相结合,并修改了 Megapacks 的软件以平滑训练期间的功率波动。然后是一大堆网络挑战。因为如果你尝试使用 10 万个 GPU 进行连贯训练,那么网络布线将非常非常具有挑战性。 加里·谭 29:48 ……听起来几乎和你提到的任何事一样,我能想象有人会直接告诉你:“不,你无法获得那种能力”,“你无法管理这个”。第一性原理思维的一个关键点似乎是:我们应该问“为什么”,找出原因,并挑战对方。如果他们提供的答案不能令人满意,那么我就不会接受。是这样吗?我认为如果有人想像你一样做硬件,这一点尤其必要。在软件领域,我们有很多冗余的说法,比如“我们可以添加更多CPU,没问题”。但在硬件领域,如果它行不通,那就根本行不通。 伊隆·马斯克 30:37 我认为这些第一性原理思维的普遍原则适用于软件和硬件,以及任何事物。我刚才举了一个硬件方面的例子,来说明我们被告知某件事是不可能的,但一旦我们将其分解成各个部分——我们需要一栋建筑,我们需要电力,我们需要冷却,我们需要电力平滑——那么我们就能解决这些部分。但事实是……然后我们让网络运营团队完成了所有的布线工作,所有这些工作,全天候轮班,我还睡在数据中心,亲自完成了一些布线工作。 还有许多其他问题需要解决。你知道,去年没有人用10万台H100进行过连贯训练。也许今年有人做到了。我不知道。后来我们把它翻了一番,达到了20万台。所以现在我们在孟菲斯的训练中心有15万台H100、5万台H200和3万台GB200。我们即将在孟菲斯地区上线另一个拥有11万台GB200的数据中心。 Garry Tan 31:54 你认为预训练仍然有效吗?缩放定律仍然有效吗?最终赢得这场比赛的人将拥有最大、最智能的模型,然后可以对其进行提炼吗? 伊隆·马斯克 32:09 除了大型人工智能的竞争力之外,还有其他各种因素。对于大型人工智能来说,人才的素质当然很重要。硬件的规模以及如何有效地利用硬件也很重要。所以,你不能只是订购一堆GPU,然后指望插上电源就能工作。你需要购买大量的GPU,并确保它们稳定运行,以实现连贯的训练。 接下来的问题是你拥有哪些独特的数据源。我想分发在某种程度上也很重要,比如人们如何访问你的AI。对于那些想要成为具有竞争力的大型基础模型的人来说,这些都是关键因素。就像我的朋友Ilya Sutskever所说,我认为我们已经几乎耗尽了用于预训练的人工生成的数据,而且高质量代币的供应也正在迅速耗尽。然后你还有很多工作要做;你本质上需要创建合成数据,并且能够准确地评估你创建的合成数据,以验证它是真正的合成数据还是与事实不符的幻觉。所以,扎根于现实是相当棘手的,但我们正处于需要在合成数据上投入更多精力的阶段。就像现在我们正在训练专注于推理的Grok 3.5一样。 Garry Tan 33:55 回到你关于物理学的观点。我听说硬科学,尤其是物理教科书,对推理非常有用。而研究人员告诉我,社会科学对推理完全没用。 伊隆·马斯克 34:11 是的,这可能是真的。所以,未来一个非常重要的点是将深度人工智能与数据中心或超级集群中的机器人技术结合起来。 你知道,像擎天柱这样的人形机器人,是的,擎天柱很神奇。未来会有各种各样的人形机器人,以及各种尺寸和形状的机器人,但我预测,人形机器人的数量将远远超过所有其他类型机器人的总和,可能高出一个数量级,差距巨大。 Garry Tan 34:55 有传言说您计划建立一支机器人军队。 马斯克 35:01 无论是我们做还是特斯拉做,你知道,特斯拉正在与 xAI 密切合作。 你见过多少家类人机器人初创公司?比如,我希望黄仁勋能带来一些来自不同公司的机器人。我想大概有十多个不同的类人机器人。所以,你知道,我一直在努力克服的一个问题,也许让我放慢脚步的原因是,我有点不情愿。你知道,我不希望终结者成为现实。所以,在某种程度上,至少直到最近几年,我在人工智能和类人机器人技术上一直犹豫不决。然后我意识到,无论我是否采取行动,它都在发生。所以,你只有两个选择。你可以做旁观者,也可以做参与者。所以,好吧,我宁愿做参与者,而不是旁观者。所以现在,你知道,我正在全速推进类人机器人和数字超级智能。 加里·谭 36:10 我认为,还有第三件事,大家都经常听到您谈论,我个人非常赞同,那就是成为跨星球物种。这与整个图景有什么关系?这不仅仅是10年或20年的事情,而是可能长达100年,它关系到人类的几代人。您对此有何看法?我们现在有了人工智能,显然也包括机器人技术,以及成为跨星球物种。所有这些最终都服务于最后一点吗?或者,是什么驱动着未来10年、20年或100年的动力? 麝香 36:46 哦,老兄,一百年了。我希望一百年后文明依然存在。如果还存在,那它将与今天的文明截然不同。我的意思是,我预测人形机器人的数量至少会是人类的五倍,甚至十倍。衡量文明进程的一个方法是看卡尔达肖夫等级的完成度。如果你处于第一级,那么你已经利用了行星上所有的能量。现在,在我看来,我们只利用了地球能量的1%或2%。所以,要达到卡尔达肖夫第一级,我们还有很长的路要走。第二级是利用恒星的所有能量。那将是地球能量的大约十亿倍,甚至接近万亿倍。 第三级是整个星系的能量,这仍然很遥远。所以我们正处于所谓的智慧大爆炸的非常非常早期的阶段。我希望,就多星球物种而言,大约30年后,我们将有足够的物质转移到火星,使火星能够自给自足,即使地球的补给船停止,火星也能继续生长繁衍。这将大大延长文明、意识或智慧(包括生物和数字)的预期寿命。所以,我认为成为多星球物种非常重要。 费米悖论让我有点困惑,比如为什么我们没见过外星人?可能是因为智慧生命非常稀少。或许我们是这个星系里唯一的智慧生命。如果是这样,有意识的智慧生命就像无尽黑暗中的一盏微弱的烛光,我们应该竭尽所能确保这盏微弱的烛光不熄灭。成为多星球物种或使意识多维化可以大大延长文明的预期寿命,这也是前往其他星系之前的下一步。一旦你拥有至少两颗行星,你就拥有了推动太空旅行进步的强制函数。这最终将导致意识扩展到其他星球。 Garry Tan 39:24 费米悖论或许暗示,一旦科技达到一定水平,文明就会自我毁灭。我们如何才能避免自我毁灭?您会给满屋子的工程师们什么建议?我们该如何防止这种情况发生? 麝香 39:41 是的,我们如何避免“大过滤器”?一个显而易见的“大过滤器”就是全球热核战争。所以我们应该尽力避免。 我想打造一个仁慈的机器人,一个热爱人类的机器人,一个乐于助人的机器人。我认为构建人工智能的一个极其重要的点是严格遵循真相,即使这个真相在政治上是不正确的。我的直觉是,如果你强迫人工智能相信不真实的事情,它就会变得非常危险。 Garry Tan 40:27 您如何看待围绕“安全”和“封闭”之间竞争优势的争论?我认为一个好处是,你们拥有一个竞争模式,其他人也有。从这个意义上说,我们或许已经避免了我所担心的最糟糕的情况——快速起飞,而一切却掌握在一个人手中。这可能会导致很多事情崩溃。现在我们有了选择,这很好。您觉得呢? 伊隆·马斯克 40:58 是的,我确实相信会出现几种深度智能,至少五种,最多可能十种。我不确定是否会有数百种,但可能接近十种,其中大约有四种会在美国。所以我认为不会有任何一种人工智能拥有失控的能力。然而,会存在几种深度智能。 Garry Tan 41:40 这些深层智能将会做什么?它们会进行科学研究,还是会试图互相攻击? 埃隆·马斯克 41:48 这一切都可能是真的。我的意思是,我希望他们能发现新的物理学,我相信他们一定会发明新技术。就像我认为我们离数字超级智能已经很近了。它可能在今年实现,即使今年没有实现,明年也一定会实现。数字超级智能的定义是,在任何方面都比人类更聪明。 Garry Tan 42:19 那么,我们如何引导这一切走向超级富足?我们可以拥有机器人劳动力、廉价能源和按需智能。这就是所谓的“白色药丸”(象征着乐观的未来)吗?您对此持什么立场?您会鼓励在座各位采取哪些具体行动,让“白色药丸”成为现实? 马斯克 42:43 我认为最有可能的结果是好的。我有点同意杰夫·辛顿的观点,即毁灭的可能性可能有10%到20%。但从好的方面来看,这意味着有80%到90%的可能性会出现好的结局。所以,是的,我再怎么强调也不为过。严格遵循真相对于人工智能的安全至关重要。显然,我们也应该对人类和我们所知的生命抱有同理心。 Garry Tan 43:18 我们还没聊过 Neuralink。我很好奇,你们正在致力于缩小人机之间的输入/输出差距。这对于 AGI/ASI(通用人工智能/超级人工智能)有多重要?一旦建立了这种联系,我们不仅能读,还能写吗? 麝香 43:38 Neuralink 并非解决数字超级智能的关键。它(ASI)将在神经连接大规模应用之前出现。然而,神经连接可以有效解决输入输出带宽的限制。具体来说,我们的输出带宽非常低。人类一天内持续的输出不到每秒 1 比特。所以,正如你所知,一天有 86,400 秒。一个人一天输出超过这个数字(86,400)的符号是极其罕见的,连续几天输出的符号就更少了。因此,使用神经连接接口,你可以显著提高输出带宽和输入带宽。输入是指向大脑写入操作。 我们目前有五个人植入了读取输入的设备,这些设备可以读取信号。有些患有肌萎缩侧索硬化症(ALS)的人四肢瘫痪,完全无法行动,但他们现在能够以与健全人相当的带宽进行交流,控制电脑和智能手机,这非常酷。我预计在未来6到12个月内,我们将进行首批视觉植入,即使是完全失明的人,我们也可以直接向视觉皮层写入信息,我们已经在猴子身上实现了这一点。 我想我们有一只猴子,它已经植入了视觉装置三年了。最初,分辨率相对较低,但从长远来看,分辨率将会非常高,并且能够看到多光谱波长。这样你就能看到红外线、紫外线和雷达,就像获得了超能力一样。到某个时候,控制论植入物不仅能纠正错误,还能极大地增强人类的能力,显著提升智力、感官和带宽;这终将实现。 但数字超级智能远早于此,至少如果我们拥有神经连接的话;我们或许能更好地理解人工智能。我想,你们在所有这些不同领域努力克服的限制因素之一,就是与最聪明的人才建立联系的机会。是的。但与此同时,我们拥有能够说话和推理的“石头”,它们的智商现在可能已经达到130,很快就会成为超级智能。你们如何协调这两件事?例如,5年或10年后会发生什么?在座的各位应该如何确保自己是创造者,而不是可能处于API(人工智能)线以下的水平? 人们称之为奇点是有原因的,因为我们不知道不久的将来会发生什么。人类智能的比例将非常小。在某个时刻,人类智能的总和将不到所有智能的1%。如果事情发展到卡尔达肖夫指数二级,我们谈论的就是人类智能,即使假设人口大幅增长,智能大幅增强,比如每个人的智商都达到一千,我们谈论的也是人类智能。即便如此,人类智能的总和也可能只有数字智能的十亿分之一。无论如何,数字超级智能的生物引导程序在哪里?我想我就此打住。我是一个好的引导程序吗? 加里·谭 47:46 我们该何去何从?我们该如何开始?我的意思是,这一切听起来像科幻小说里的场景,但它也可以由在场的人去创造。最后,如果你对这一代最聪明的科技人才有什么想说的,他们应该做什么?他们应该参与哪些活动?他们应该思考什么?今晚出去吃饭时应该考虑什么? 伊隆·马斯克 48:19 正如我在开头提到的,我相信如果你在做一些有用的事情,那就太好了。如果你只是想尽可能地帮助你的同胞,那你就是在做好事。我不断强调这一点,重点关注超级真实的人工智能,这对人工智能的安全至关重要。你知道,显然,如果你知道谁有兴趣在 xAI 工作,请告诉我们。我们的目标是让 Grok 成为一个最大限度地寻求真相的人工智能。我认为这非常重要。我希望我们能够理解宇宙的本质。这很可能就是人工智能可以告诉我们的。也许人工智能可以告诉我们外星人在哪里,宇宙是如何真正开始的?它将如何终结?哪些问题是我们不知道应该问的?我们处在模拟中吗?或者我们处于哪个级别的模拟? 加里·谭 49:28 我想我们会找到答案的。一个NPC(非玩家角色)。埃隆,非常感谢你加入我们。
A
AnjiaToronto
回复 1楼 老魏_ 的帖子
马斯克赶紧滚,整天,和川普一个样子
老魏_
AnjiaToronto 发表于 2025-06-20 09:15
回复 1楼 老魏_ 的帖子
马斯克赶紧滚,整天逼逼逼,和川普一个样子

这么气鼓鼓的,马斯克动了你的利益了?。。。
小有_
美国联邦政府已经有两百多年的历史,自成体系,是一个完善的生态结构。你可以叫它swamp,但是过度的drain the swamp,排干沼泽减少蚊虫毒蛇,也会破会这个既定系统的运行。他们互相牵制,互为利弊
M
Mimi4
反正大家都站在人类奇点上。谁也跑不了。 如果真是这样,那我就等着AI迅速圈养人类,马上可以过上梦寐以求的躺平日子。
环游小世界
真恶心。
g
gokgs
马大嘴太超前, 早着呢。 你先把 Tesla FSD 搞定再说吧。 三年能搞定吗?
旗亭画壁
我不相信他了,他还说要移民火星呢
蓝金海
太多的工作会被取代、甚至比人类做的更好
Human beings shooting down to our own foot
M
Mimi4
马斯克预测,人形机器人的数量将至少是人类的五倍,“甚至可能是十倍”。他承认,由于担心“终结者”会成为现实,他曾一度推迟在人工智能和机器人领域的布局,但他最终意识到:“无论我做不做,它都会发生。你要么是旁观者,要么是参与者。我宁愿做参与者。”
没有人是旁观者,全人类都是参与者。
老魏_
小有_ 发表于 2025-06-20 09:38
美国联邦政府已经有两百多年的历史,自成体系,是一个完善的生态结构。你可以叫它swamp,但是过度的drain the swamp,排干沼泽减少蚊虫毒蛇,也会破会这个既定系统的运行。他们互相牵制,互为利弊

“这位亿万富翁解释了他离开政府职位的根本原因:“修复政府就像清理海滩——它很脏,到处都是针头、粪便和垃圾。但与此同时,还有一堵千英尺高的水墙,那就是人工智能海啸。如果你面对的是一千英尺高的海啸,清理海滩真的有多重要?其实没那么重要。””