AI教父:AI在30年内毁灭人类的几率高达2成

今日头条
Toutiao
最新回复:2024年12月29日 1点43分 PT
  返回列表
24348 阅读
14 评论
中时电子报

被誉为“人工智能(AI)教父”的辛顿(Geoffrey Hinton)警告说,AI的变革速度“远比预期快”,人工智能在未来30年灭绝人类社会的可能性为10至20%。辛顿是2024年诺贝尔物理学奖的共同得主,他之前曾表示这个几率为10%。

辛顿近日接受《BBC》采访,当被问到为何会上调这个几率,辛顿指人类从未应对过比我们更聪明的事物。他补充道:“试想一下,你有见过较聪明物种,让较愚钝物种控制的情况吗?例子非常少。我唯一能够想到的例子就是,婴儿‘控制’母亲;人类成长的过程需要花费大量精力,因此婴儿才能够控制母亲。”

辛顿还指出,与强大的AI系统相比,人类就像幼儿。他说:“我喜欢这样想:想像一下你和一个三岁的小孩。我们将会是那个三岁的小孩。”

辛顿去年辞掉在谷歌(Google)的工作,以更畅快地谈论AI发展不受控制所构成的风险。他指出,“坏人”可能会利用这项技术对他人造成伤害。并补充,许多专家认为在未来20年内,可能会开发出比人类更聪明的AI系统,而这是非常可怕的想法。

回顾AI发展的迅速进展,辛顿表示:“我没想到它会进展到现在这种地步。我曾以为我们会在更遥远的未来到达这里。”

辛顿同时强调政府监管的必要性,指出AI发展速度“非常、非常快,远超过我的预期”。他警告说,仅依赖大型公司的利润动机并不足以确保AI的安全发展,“唯一能迫使这些大公司进行更多安全研究的是政府监管。”

辛顿是获得2018年图灵奖(Turing Award)的3位“AI教父”之一。然而,其中一位成员、Meta首席AI专家勒昆(Yann LeCun)则淡化了存在性威胁,并表示AI“实际上可以拯救人类免于灭绝”。

天乙贵人
1 楼
不需要ai了,直接给扫地机器人做大一点,绑上几十只枪,在市中心的mall里乱开枪就行了。
p
pellegrino
2 楼
不会是20%的 必定是100%
京城老炮1950
3 楼
耸人听闻!AI是人造的,而人是上帝造的。除非人类要自己毁灭自己,否则没有任何人造的东西可以毁灭人类!
s
seator
4 楼
前提是AI有自我思维能力,生成式AI本质上还是个问答机器人
骂人不好
5 楼
人工智能的自主训练客观来看是有可能给人类带来灾难的。出于法律和伦理道德的监管必须加强。人工智能的学习过程取决于数据。比如自主学习的过程中,大量的数据如果显示出通过战争可以取得控制权和财富,人工智能会不会挑起战争?如果数据告诉它罗织罪名可以打击对手,获得权力和巨大的利益,人工智能会不会编造数据,罗织罪名? 如何避免人工智能在自主训练中接触到和人类的伦理道德相悖的事实和数据从而训练出以恶行来追求利益最大化的人工智能? 有人说拔电源就行了。问题上人工智能那个时候一定已经掌握了人的弱点,用利益收买人去给它差电源,或者控制备用电源,估计也不是做不到。一旦人工智能学会了人的诡计,人类就危险了。
w
wanjiadeng
6 楼
即便如此人类也没有解决办法。就算美国能做到充分监管AI(可能性不大),也不能保证其他国家也会做到。如果反而让某个邪恶政权(比如朝鲜)发展出领先技术,岂不是作茧自缚
骂人不好
7 楼
楼下万家灯火网友所担心的挑战是实实在在的。 现在的人工智能在狭义智能上已经非常先进了,但是还没有突破广义的人工智能。我的理解是还没有自主的思考能力,它的能力还是依赖于数据和训练。一旦突破广义的人工智能,国际合作和监管必不可少。不然太危险了。不过我相信人类一定会找到办法一面享受人工智能带来的好处,一面控制风险。毕竟互相毁灭的能力是监管的最后的保险。当然以人性之贪和人性之恶,滥用人工智能带来恶果的案例一定会发生的。
s
shiren1818
8 楼
30年内教父被AI毁灭,人类还是继续生存,文学城里照样灯火通明。
弯刀月
9 楼
中巴反恐演习就是AI能力的展现,一枪一个,绝不浪费子弹。美军更牛逼,阿三整的AI已经可以绕开人工指令指挥飞机了
一支鞋飞了
10 楼
已经开始了,看看现在大面积的失业人口吧
旁观者XWY
11 楼
AI将会是上帝的信使,中世纪的宗教战争重现,归根结底还是人类自相残杀。
旁观者XWY
12 楼
人为万物之灵归功于大脑,但一旦着迷,大脑也是人的死穴,不是成为丧尸就是死士。AI将是人脑的主人。
一个头两个大
13 楼
人类早该灭绝了,就怕把自己毁灭了,AI还什么都不是。如果AI能独立思考和发展,也不见得比人类糟糕。就怕搞出来的AI是个半吊子货,就像很多被人类圈养的家畜一样,离开人类分分钟就完蛋。
X
XM25
14 楼
发明原子弹的时候也有这种担忧。