马斯克领衔呼吁:危险!立刻停下所有大型AI研究

今日头条
Toutiao
最新回复:2023年3月29日 11点50分 PT
  返回列表
81022 阅读
38 评论
华尔街见闻

当全社会都在为AI的进化而欢呼雀跃,全新的、意想不到的风险可能也正在悄悄酝酿。

3月22日,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。该机构以“引导变革性技术造福生活,远离极端的大规模风险”为使命。

该机构在信中提到:

我们不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。只有当确保强大的人工智能系统的效果是积极的,其风险是可控的才能继续开发。

人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。

截止目前,马斯克、苹果联合创始人Steve Wozniak、Stability AI 创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。

值得一提的是,OpenAI CEO奥特曼在与MIT研究科学家Lex Fridman的最新对话中指出,AI已经出现其无法解释的推理能力,同时承认“AI杀死人类”有一定可能性。

那么ChatGPT是如何看待公开信中AI对人类社会的影响?华尔街见闻专门询问了ChatGPT 3.5,其表示随着人工智能技术的不断发展和普及,人工智能可能对社会和人类造成的影响将越来越大。这封公开信提出的呼吁和建议,应该被视为引起更广泛和深入讨论的起点和参考,而不是一个终点或解决方案。

以下是公开信原文:

正如广泛的研究和顶级人工智能实验室所承认的,人工智能系统对社会和人类构成较大的风险。《阿西洛马人工智能原则》中指出,高级人工智能可能代表着地球上生命历史的深刻变革,应该以相应的谨慎和资源进行规划和管理。然而,尽管最近几个月人工智能实验室掀起AI狂潮,开发和部署越来越强大的数字大脑,但目前没有人能理解、预测或可靠地控制AI系统,也没有相应水平的规划和管理。

现在,人工智能在一般任务上变得与人类有竞争力,我们必须问自己:我们应该让机器在信息渠道中宣传不真实的信息吗?我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的大脑,使其最终超过人类数量,胜过人类的智慧,淘汰并取代人类?我们是否应该冒着失去对我们文明控制的风险?这样的决定绝不能委托给未经选举的技术领袖。只有当我们确信强大的人工智能系统的效果是积极的,其风险是可控的,才应该开发。同时,这种信心必须得到验证,并随着系统的潜在影响的大小而加强。OpenAI最近关于人工智能的声明中指出,在开始训练未来的系统之前,可能必须得到独立的审查,对于最先进的努力,同意限制用于创建新模型的计算增长速度。我们同意,现在就该采取行动。

因此,我们呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,时间至少持续6个月。这种暂停应该是公开的、可核查的,并包括所有关键参与者者。如果这种禁令不能迅速实施,政府应该介入并制定暂停令。

人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。这些协议应该确保遵守协议的系统是安全的。值得一提的是,这并不意味着暂停一般的人工智能开发,只是从危险的竞赛中退后一步,限制不可预测的研究和开发。

人工智能的研究和开发应该重新聚焦于,使目前最先进和强大的系统更加准确、安全、可解释、透明、稳健、一致、值得信赖和忠诚。

同时,人工智能开发者必须与政策制定者合作,大幅加快开发强大的人工智能治理系统。这些至少应该包括:专门针对人工智能的监管机构;监督和跟踪高能力的人工智能系统和大型计算能力的硬件;出处和水印系统帮助区分真实和合成,并跟踪模型泄漏;强大的审查和认证生态系统;对人工智能造成的伤害承担责任;为人工智能安全技术研究提供强大的公共资金以及资源充足的机构,以应对人工智能可能导致的巨大的经济和政治破坏。

人类可以通过人工智能享受繁荣的未来。现在,我们成功地创建了强大的人工智能系统,可以在这个“人工智能之夏”中获得回报,为所有人的明确利益设计这些系统,并给社会一个适应的机会。停止使用其他技术可能会对社会造成灾难性影响,因此我们必须保持准备状态。让我们享受一个漫长的人工智能夏天,而不是匆忙进入秋天。

桑拿
1 楼
哈哈哈,半年后—— Twitter 发布自研的 AI 系统 —— Twintelligence
这个秋天
2 楼
确实如此,突然被打懵。传统科技公司需要时间反应跟上,不然汤都喝不上
r
roadshark
3 楼
Stop me? no way. You are terminated. — Terminator
大春哥
4 楼
就是說我們已經做到並領先,其他人都不能再做了。以後我就領導者,你想做要先經我們同意
雁过拔毛机
5 楼
太迟了,智能时代必将终结人类,就如同恐龙一样,人类的时代终有一天会结束,以后的地球是智能的时代。
d
dancingwater
6 楼
马斯克不搞专利限制,喷他的可以闭嘴了
m
masseyboy80
7 楼
judgement day is coming.
g
gg1985
8 楼
哈哈哈,这叫新闻?谁停下来谁搞笑
n
neophoenix
9 楼
推理能力应该是有的,但是现在还不强,就像我以前用了个网上流传甚广的智力题,AI秒答,但我把问题变一下,南北颠倒,AI就花了挺久才解决,因为AI无法上网,所以如果是自身解决的话就说明AI能够归纳总结推理了 [2评]
R
Robin_Snow
10 楼
现在AI还是很初级,当然不排除出现井喷,那样的话就没人能控制了
p
push
11 楼
5年前的ai只会下棋,现在已经能完成很多基础工作了,5年后根本不敢想😂😂 [1评]
n
neophoenix
12 楼
对,主要是看潜力,现在这样了,以后天知道
T
TCVD
13 楼
你这就相当于在训练它了,全世界的用户都这样在训练它,所以能力提升速度是很恐怖的 [1评]
B
Bccan
14 楼
他就是 羡慕嫉妒恨
n
neophoenix
15 楼
生产力的进步一直是的,创造和毁灭齐头并进
o
oldoldcandy
16 楼
哈....哈....
网络123
17 楼
技术是阻止不了的。与其担心AI,不如担心核弹。核弹是物理摧毁,而且科技门槛低了很多。 AI现在还看不出对人类的威胁,最多是人类工作的大革新,目前不少职业将来可能不保,不过真是如此,调整适当,对全人类未必不是一件好事。人类要学着和一个新技术共存而已。
t
tan
18 楼
Ai最终会引爆核弹
韭菜梗
19 楼
关键是现在的研究都是尽可能的提高ai的学习推理能力,没有设定边界,ai接触负面的东西多了就很难预测其行为
b
bestnearby1
20 楼
没有白左站出来保护AI的权利了吗?
F
FDM0030
21 楼
ai的突飞猛进肯定会带来人类社会大变革,就如同蒸汽机崛起工业革命时代一样。这种变革必然带来生产力的飞跃,但如果人类社会没有做好准备,随之而来的进一步贫富分化社会动荡甚至战争也是很有可能的。如何尽量减少转型的痛苦以及转型后的协调将是非常重要的课题。
大胖豆豆
22 楼
我在等待性爱机器人,再不出来我就老了。
f
flowerkiller
23 楼
ai是潘多拉的盒子 人类的贪婪最终会打开它
h
hosain
24 楼
人工智能的最高境界消灭人类指日可待
s
snofox
25 楼
未来生命研究所是个鬼?
S
Sinoroc
26 楼
我干,可以!你们干,不行!
k
kaikaikai1984
27 楼
AI绘画 AI配音 随着AI技术发展越来越多人会失业,这可比当年蒸汽机干掉纺织工人的规模大的多得多,而且速度极快。 [1评]
n
neophoenix
28 楼
AI可能有的问题就是停不下来,就像三体说的接触外星文明一样,一旦过了某个点开始质变,那掌握AI的那个就等于一下接触了未来科技,没AI的就瞬间沦为史前文明 [1评]
n
neophoenix
29 楼
感觉要平衡,势力之间以及AI和人类之间,还是要至少三个超级AI吧
大叔
30 楼
因为他退出了openAi现在酸了
o
octane
31 楼
可惜这只是对AI的炒作,AI本身还没到真正实现智能的水平,chatgpt只是在语义分析上有突破,实际上只是一种新的搜索方式