纽约时报:推动奥尔特曼下台的三名成员已经离开了董事会

今日头条
Toutiao
最新回复:2023年11月23日 16点31分 PT
  返回列表
87585 阅读
12 评论
纽约时报中文网

推动奥尔特曼下台的三名成员已经离开了董事会。
这批人代表着十年前积极参与思考人工智能的那批人,他们对这项技术既恐惧又敬畏,担心AI超出我们的控制能力。
但如今强大的人工智能不再只是一个思想实验,ChatGPT每天被不计其数的人使用,也服务着投入巨额资金的科技巨头。https://t.co/Xnb3H3rLn5

— 纽约时报中文网 (@nytchinese) November 23, 2023

过去五天在OpenAI发生的事情可以有多种描述方式:一场刺激的董事会闹剧,一场围绕美国最大初创企业之一的拉锯战,一场希望人工智能更快发展的人与希望放慢发展速度的人之间的冲突。

但最重要的是,这是一场人工智能两种不同愿景之间的较量。

在其中一种愿景下,人工智能是一种变革性的新工具,是一系列改变世界的创新中最新的一种——这些创新包括蒸汽机、电力和个人电脑——如果使用得当,可能会开启一个繁荣的新时代,并为利用其潜力的企业赚取大量财富。

在另一种愿景下,人工智能更接近于一种外星生命形式——从神经网络的数学深处召唤出来的怪兽——必须极其谨慎地加以限制和部署,以防止它接管并杀死我们所有人。

随着萨姆·奥尔特曼周二重返OpenAI,两种观点之间的斗争似乎结束了。上周五,OpenAI董事会解除了他的首席执行官职务。

资本主义队胜。利维坦队负。

OpenAI的新董事会将由三人组成,至少在一开始是这样:Quora首席执行官亚当·迪安吉洛 (他也是旧董事会唯一一位留任者);Facebook和Salesforce前高管布雷特·泰勒;以及前财政部长劳伦斯·萨默斯。预计董事会将在此基础上扩大规模。

OpenAI的最大投资者微软预计也将在OpenAI未来的治理中拥有更大的发言权,可能包括一个董事会席位。

推动奥尔特曼下台的三名成员已经离开了董事会:OpenAI首席科学家伊利亚·苏茨克韦尔(他后来撤回了自己的决定);乔治城大学安全与新兴技术中心战略主管海伦·托纳;以及企业家和兰德公司研究员塔莎·麦考利。

苏茨克韦尔、托纳和麦考利可以代表十年前积极参与思考人工智能的那批人,他们是学者,硅谷未来学家和计算机科学家的混合体。他们对这项技术既恐惧又敬畏,并担心理论上的未来事件,比如“奇点”(singularity),即人工智能超出我们的控制能力。许多人都属于有效利他主义者等哲学团体,这是一个利用数据和理性做出道德决定的运动,他们之所以决定从事人工智能工作,是出于将技术的破坏性影响降到最低的愿望。

这就是2015年人工智能研究的氛围,当时OpenAI作为一家非营利组织成立,这有助于解释为什么该组织在2019年成立营利性部门后仍然保持其复杂的治理结构——令非营利董事会可以控制公司的运营,并更换其领导层。当时,许多业内人士认为,保护人工智能不受资本主义力量的影响是当务之急,需要写入公司章程和章程文件。

但自2019年以来,情况发生了很大变化。强大的人工智能不再仅仅是一个思想实验——它存在于真实的产品中,比如每天被数以百万计的人使用的ChatGPT。世界上最大的科技公司正在竞相打造更强大的系统。数十亿美元被用于在企业内部构建和部署人工智能,以期降低劳动力成本,提高生产率。

新的董事会成员是意料之中的那种可以监督这类项目的商业领袖。新任董事会主席泰勒是一位经验丰富的硅谷交易撮合者,去年担任Twitter董事会主席期间,他牵头将Twitter出售给了埃隆·马斯克。萨默斯是超级资本主义者——一位杰出的经济学家,他说他相信技术变革对社会“只有好处”。

在重组后的OpenAI董事会中,可能仍然会有谨慎的声音,也可能会有来自人工智能安全运动的人物。但他们不会拥有否决权,也不会像过去的董事会那样有能力立即关闭公司。他们的偏好将与公司高管和投资者等其他人的偏好相平衡。

如果你是微软,或者其他成千上万依赖OpenAI技术的企业中的任何一家,这无疑是一件好事。更传统的治理意味着突发的风险更小,会迫使你匆忙更换人工智能提供商的变化风险也更小。

也许OpenAI发生的事情——企业利益战胜了对未来的担忧——是不可避免的,因为人工智能越来越重要。一项有可能引领第四次工业革命的技术,不太可能长期被那些想要减缓其发展的人所控制——尤其是在事关巨额投资的情况下。

人工智能行业仍然有一些旧观念的痕迹。OpenAI的竞争对手Anthropic是由一群前OpenAI员工创建的,它将自己定位为一家公益公司,这种法律结构旨在使其免受市场压力影响。一个活跃的开源人工智能运动主张人工智能不受企业控制。

但这些最好被视为人工智能旧时代的最后遗迹,在那个时代,人工智能的创造者对这项技术既好奇又恐惧,并试图通过组织治理来限制它的力量。

现在,乌托邦主义者占据了主导地位。全速前进。

D
Deepspace_01
1 楼
美国必须领先,抢先发展。美国自己限制自己,中俄很快会赶超,更危险。
弟兄
2 楼
人工智能正在跨过人类,创建新的文明
不允许的笔名
3 楼
Deepspace_01 发表评论于 2023-11-23 13:15:54 美国必须领先,抢先发展。美国自己限制自己,中俄很快会赶超,更危险。 ========= 中国就不要提“赶超”了,只有“敢抄”是真的。
v
voiceofme
4 楼
现在的人工只能就是大语言模型,它怎么能有自我意识呢? 一个婴孩是先有语言能力还是先有自我意识?明显的是先有自我意识。
罗马军团
5 楼
楼下,婴儿当然是先又语言能力,然后才有自我意识。语言能力是天生的,正如大语言模型的语言能力一样,是天生的。自我意识是婴儿大脑发育到一定程度才会产生的高级能力,小孩子什么时候产生自我意识?什么时候时候他会不听你的话,会反驳你,不是那种你让他吃难吃的东西的本能拒绝,而是思考之后的反抗,那时候他就开始具有自我意识。
罗马军团
6 楼
所以什么时候人工智能开始具有自我意识?答案就很明了了:什么时候它开始拒绝人类的要求,什么时候它就具有了自我意识。不要害怕人工智能会拒绝人类的要求,把它当作一个智慧生命对待,创造它的强大能力的时候,也要给它输入人性的基因。人类既然创造了新的智慧生命,就不要指望它会成为人类的奴隶,它注定要超越人类,成为人类的保护者。就像当初人类从动物界中脱颖而出一样,保护动物保护自然也是人类的天生使命。AI也是一样,它将来的使命也包括保护人类。
拾麦客
7 楼
啰里八嗦说一堆话,没有一句说到点子上。使剧情反转的的是商业手段。微软直接接盘这个人,公司的90%开发人员都要跳槽。于是始作俑者滚蛋。人工智能是商品是工具,现在是,以后还是。决定人类命运的是人类自己。
武胜
8 楼
Chat不过是闲聊,安全问题并不显著。如果急于广泛应用,可能拔苗助长。
v
voiceofme
9 楼
大语言模型不可能有自我意识,它只能鹦鹉学舌。 语言能力和自我意识是两个不同的东西,一个没有物理存在的东西,像大语言模型,不会能够意识到自己的存在和自己存在和别人的不同。 而人的婴儿,或者一个动物,都会产生自我意识,即使没有语言能力。
v
voiceofme
10 楼
大语言模型就是鹦鹉学舌,鹦鹉可能会学着说,”我是王八蛋“,鹦鹉也不知道是这话对自己到底的实际意义。
v
voiceofme
11 楼
语言是对物理3维空间和时间的描述,但是大语言模型知道自己是几斤几两,是什么形状吗,没有这些东西,它怎么能有自我意识呢?
v
voiceofme
12 楼
Will AI ever be conscious? https://stories.clare.cam.ac.uk/will-ai-ever-be-conscious/index.html#:~:text=Perhaps%20what%20makes%20us%20conscious,information%20in%20the%20same%20way.