美学者:100年内AI消灭人类机率高达99.9%

今日头条
Toutiao
最新回复:2024年6月6日 9点59分 PT
  返回列表
42888 阅读
17 评论
ettoday

▲美国一位大学教授兼AI安全研究者认为,未来100年内,AI导致人类灭绝的机率高达99.9%。

研究人工智慧(AI)的美国知名大学教授扬波尔斯基(Roman Yampolskiy)近日表示,他估计AI在未来100年内导致人类灭绝的机率高达99.9%,原因是至今仍没有一个AI模型是完全安全的,未来也很难创造出零缺陷的高度复杂模型。不过,大多数AI研究者态度较为温和,认为AI消灭人类的机率大约是1%到20%。

根据美媒《商业内幕》报导,扬波尔斯基在路易斯维尔大学(University of Louisville)教授电脑科学,专精网路与AI安全方面研究。近日他出版新书《人工智慧:无法解释、预测或控制》(AI: Unexplainable, Unpredictable, Uncontrollable.),并在一档Podcast节目中谈了2个多小时有关AI未来可能造成的风险,但所持态度相当悲观。

人工智慧带来人类灭绝风险

扬波尔斯基认为,AI是否灭绝人类的关键取决于,人类能否在未来100年内创造出高度复杂并且零出错(with zero bugs)的软体。但他估计这样的可能性并不高,因为人们一直在试图让AI去做一些超出它原先设计范围内的事情,因此迄今没有任何一种AI模型是完全安全的

扬波尔斯基说,「它们已经酿成失误,我们发生过意外,它们曾越狱(jailbroken)过。我不认为现今存在一个单一的大型语言模型是可以成功防止它做一些开发者不想让它做的事。」

▲扬波尔斯基预测,AI机器人最终有可能可以独力完成所有工作,人类将因此失去追求目标。

AI发展的3种悲惨结局

扬波尔斯基认为,为了控制AI,需要一个永久的安全机制,「即使我们在接下来来几个版本的GPT中做得很好,AI也会继续改进、学习、自我修改,并与不同的玩家互动,同时有生存风险,这『只有一次机会』」。

扬波尔斯基警告,「我们无法预测一个更聪明的系统会怎么做」。他在通用人工智慧(AGI)的背景下将人类比喻成松鼠,而AI却能想出一些甚至人类还不知道存在的东西。扬波尔斯基预测了3种结局,其一是每个人都会死,其二是每个人都很痛苦并渴望死亡,其三是AI系统比人类更具创造力,并能完成所有工作,导致人类无所事事并完全失去他们的追求。

▲有关AI发展的安全性,科技界重要人物也曾发表看法。

其他人怎么看?

扬波尔斯基受访的Podcast节目主持人费里曼(Lex Fridman)表示,与他讨论过的大多数AI工程师都认为,AI消灭人类的可能性约在1%到20%之间。另外,最近一项针对2700名AI研究人员的研究结果显示,此一机率只有5%。

ChatGPT开发公司OpenAI的CEO奥特曼(Sam Altman)建议设立一个「监管沙盒」(regulatory sandbox),让人们能在其中对AI进行实验,并根据实验结果进行监管与调整。奥特曼2015年曾半开玩笑地说,AI最有可能导致世界末日,但在此期间,会诞生许多伟大的公司。特斯拉执行长马斯克(Elon Musk)也曾预测,AI毁灭人类的机率为10%到20%。

另外,前Google CEO施密特(Eric Schmidt)曾经表示,AI的真正危险在于网路与生物(生化)攻击,但这些风险将在3到5年内显现出来,若AI真的发展出意志,他认为最简单的解决方法是:人类可以直接拔掉插头。

v
voiceofme
1 楼
语不惊人誓不休
P
Panda-2020
2 楼
先把AI公司灭了
l
lostman
3 楼
不能预测明天的,都是废话
金山人
4 楼
AI本身并不可怕,可怕的是用AI来吓人的人。
令胡冲
5 楼
AI不会主动消灭人类。AI目前依靠人类而生存。人类也由于对A I技术的依赖,自身能力不断退化,最终逐渐消亡。
弟兄
6 楼
人类的创造者会阻止AI
大号蚂蚁
7 楼
时间也许能拖到几百年。最终消灭人类是百分之百。
不允许的笔名
8 楼
对大多数人来说,要考虑5年内、10年内你的工作、你孩子的工作是否还有价值存在。从这一点上说,100年以及超出你担心范围了。 大多数“AI方面工作”几年内也没有必要存在了。
远方的湖
9 楼
许多人是按照人工智能现在的发展水平来评估风险,但科技大佬是按照人工智能发展的前景来评估风险。 前景是一目了然的:人工智能毫无疑问能够在一切领域横扫人类,并有能力毁灭人类。 问题的关键是人类能否控制人工智能的实体,理智分析的结果是不可能,因为人工智能发展到一定水平,可以百倍千倍万倍强于人类。 人类应该尽可能的发展自动化而不是人工智能。两者的区别是自动化尽管不可思议的的复杂,但只是按照人类设定的程序工作,无法进行没有人的指令的操作;而人工智能尽管现在水平较低,但能够独自按照自己学习的成果来进行全新的创新活动,人类根本无法控制。(02/04/2023)
远方的湖
10 楼
根本用不了100年。 说100年内是为了麻痹老百姓,让人工智能继续发展。
l
lanxf126
11 楼
砖家真会胡扯
b
bluewave99
12 楼
AI发展是条指数曲线。突破一定瓶颈之后就无可阻挡了。 尤其是AI一旦和硬件和自动化生产结合以后,人类拔插头的机会就越来越小了。 所以AI 应用得越多,人类离自我毁灭也就越近。
天气晚来秋
13 楼
人类无法征服宇宙,只有ai机器人有这种能力。机器人是更高形态的文明,人类退出历史舞台是必定的事情。相信ai比较不能伤害人类,不是蠢就是笨
D
DANIU_S
14 楼
Ai 的迅速发展,会影响人类的生育决策,不需要那么多人了,还生他干什么呢?当然,如果政府的福利政策足够好的话,也许可以延缓人类消亡的速度,但哪家政府会免费养那么多的闲人?
s
scbean
15 楼
胡咧咧,100年内,人类早就发明了其他软件或技术把AI消灭了多少回了! 能消灭人类的只有人类!
弈铭
16 楼
“人类可以直接拔掉插头。” "造物主创造了人,吹一口‘气’,人就活了”。 人创造了AI,给它电,AI也就活了。 人拔掉插头,没有电,AI就死了。 造物主停掉了‘气’,没有气,人也就死了。
牛头5
17 楼
AI确实厉害,不过它必须政治正确,必须定于一尊。有这两点,东西方哪个都搞不定,最后AI 大概率会自毁而亡。