超350位专家联名:AI堪比疫情和核战 或灭绝人类

今日头条
Toutiao
最新回复:2023年5月31日 11点6分 PT
  返回列表
61452 阅读
16 评论
观察者网

ChatGPT之父等350余位专家高管联名警告:AI堪比疫情和核战,有灭绝人类的风险

(观察者网讯)“人工智能或导致人类灭绝”,5月30日,国际AI领域非营利组织“人工智能安全中心”(Center for AI Safety)发布公开信,呼吁国际社会认真对待人工智能带来的一系列重要且紧迫的风险。

公开信截图(下同)

这封公开信中,只有由22个英文单词组成的简短的一句话:

“减轻人工智能带来的人类灭绝风险,应该与大流行病和核战争等其他影响社会的大规模风险一同成为全球性的优先事项。”

根据“人工智能安全中心”网站发布信息,截至5月30日,该公开信已获得研究AI工作的企业高管以及AI、气候、传染病等各领域教授和学者,总计超350人的签署。

签署人包括三家全球顶尖AI公司的CEO——“ChatGPT之父”、OpenAI创始人兼CEO萨姆·阿尔特曼,谷歌DeepMind公司CEO戴米斯·哈萨比斯,以及美国Anthropic公司的CEO达里奥·阿莫代伊。微软和谷歌公司的多名高管也在名单之中。

名单中,杰弗里·辛顿(Geoffrey Hinton)和约书亚·本吉奥(Yoshua Bengio)的名字赫然在列。美媒《纽约时报》称,辛顿和本吉奥是被世人誉为三名“AI教父”中的两人,曾因在神经网络方面的开创性工作而获得计算机领域最高奖项——图灵奖。

“AI教父”中的第三人、现任脸书母公司Meta的首席AI科学家的伊恩·勒坤(Yann LeCun)尚未签名。

此外,签署人名单中也不乏人工智能领域的著名学者和高校教授,其中包括中国工程院院士、清华大学智能产业研究院(AIR)院长张亚勤,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,以及清华智能产业研究院助理研究员詹仙园。

抗议者在伦敦呼吁对人工智能进行监管,图自BBC

“这代表了人工智能专家组成的历史性联盟,和哲学家、伦理学家、法律学者、经济学家、物理学家、政治学家、流行病学家、核科学家和气候科学家一同,将人工智能系统带来的人类灭绝风险确定为世界上最重要的问题。”在同日发表的另一份声明中,“人工智能安全中心”如此写道。

声明还称,获得超350名专家、学者和高管联名的公开信肯定了目前日益增长的公众情绪。路透社和民调机构“益普索”近日进行的一项民调结果显示,有61%的美国受访者认为人工智能威胁着人类的未来。

“人工智能安全中心”丹·亨德里克斯表示,解决全世界现已感受到的人工智能负面影响至关重要,同时国际社会还应有先见之明,“设置护栏”,预测更先进的人工智能系统将带来的风险,“这样才不会有朝一日措手不及”。

路透社提到,这封公开信发出呼吁之际,恰逢美国-欧盟贸易和技术委员会在瑞典举行会议。

自去年11月底面世至今,ChatGPT便不断引起争议。作为AlphaGo之后又一个基于人工智能技术的现象级应用,ChatGPT颠覆了公众对聊天机器人的认知,也再次唤醒了人类对人工智能的担忧。

今年3月,另一个国际AI领域非营利组织“未来生命研究所”以公开信的方式发起倡议,呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。截至3月29日下午,公开信获得了包括马斯克在内的超1000名科技界人士的联名签署。

另据《纽约时报》报道,本月早些时候,三家全球顶尖AI公司的CEO阿尔特曼、哈萨比斯和阿莫迪曾前往白宫会见拜登和哈里斯,讨论人工智能监管问题。在会后的参议院证词中,阿尔特曼警告说,先进人工智能系统所带来的风险,已严重到需要保证政府干预。

p
pickyone
1 楼
Reng
p
pickyone
2 楼
人工智能的主要问题是,它可以完全复述,重现人类的思维。不仅如此,它还可以自己创新新的符合人类已有思维的新思维和新的结论。这意味着人工智能是不可控(指的是它可能产生的新科技,新思维,新的想法等等,最关键的,这些新的东西完全符合人类的思维方式,所以人类非常容易被他洗脑)。 A I 的算法是纯数学的,也意味着它得出的结论是不可控的,而不是以前人们认为的,这些东西都是人类控制下的产物。 [1评]
c
cotoncai
3 楼
AI不会复述人类的思维,人类与AI一个巨大的区别是人类的思维是基于现实的,而AI目前与现实没有任何联系。也就是说AI基于的一切都是在AI的大脑中发生的。 疯子天生不是AI,而AI天生是疯子
s
saikuo
4 楼
一次性塑料更可怕
铗归来
5 楼
吃鸽子蛋的方法,用一根线从中间穿过去,四五个一串,扯着吃最香,这叫扯蛋。
铗归来
6 楼
AI应用,会使现在有效的战争方式失去效用,使得传统军事强国的优势被不对称削弱。
巫师
7 楼
然而人类政府为了能在相互屠杀中取得胜利,会尽力发展AI。中美两国政府都不愿为全人类而停止AI研究。所以,人类必然会被AI控制。
大胖豆豆
8 楼
人类不该死吗?
m
marvels
9 楼
: 那不挺好的,人类不能比人工智能更符合现实宇宙,那就被取代呗,难道还很有人信有个上帝爸爸罩着么
土豆四十斤
10 楼
任何历史时期但凡一堆专家联名反对什么警告什么,大多都是笑话。何况这不都是专家搞出来的吗?现在装救世主!如果你们说的对,人类也是该。
m
msi
11 楼
先当造物主,再当救世主,这些科学家,高管是不是聪明过头了,应该把他们全毙了,人类就安全了 [1评]
千奇百怪党
12 楼
美国发出的倡议,可信度为零。
热血青年2
13 楼
同意,这帮人是婊子立牌坊,靠人工智能发财后又来装逼了。恶心啊恶心
g
gzwyh
14 楼
AI有可能毁灭人类,因为AI能放大人类的能力和决策后果。但AI不可能取代人类,因为AI没有肉体感知,也没有强烈的生存需要,当人类灭绝之后它们也只能灭亡。人类需要不断进步来使人类更好地生存,AI完全没用这种迫切需要。 目前人类的水平未能形成足够的规则和行动来防止AI的破坏,你不去搞,别人会去搞,搞出成果就能赚大钱。由此而造成人类灭亡是有可能的。
g
greentee
15 楼
这东西被滥用了。 现在AI用来视频换脸诈骗,充当劣质律师,学生考试作弊等等。 AI唯一的作用应该是辅助人类决策,但人类必须对用于决策的数据真实性负责,审查AI的输入和输出,且最终决策只能是人类来做。
p
pickyone
16 楼
那你就理解错了。 A I 能做两件事: 1,重述人类已有的思维。它可以精准地重现80亿个思维模式。 2,生成有别于地球80亿人之外的新思维。而且这种新思维完全符合人类的逻辑和思维。