ChatGPT之父警告:AI或灭绝人类 350名AI权威联署

今日头条
Toutiao
最新回复:2023年5月31日 2点34分 PT
  返回列表
72179 阅读
27 评论
爱范儿

就在刚刚,AI 领域传出一封重要的公开信。

包括 「ChatGPT 之父」Sam Altman 在内 350 位 AI 权威都签署了这封联名公开信,并对当前正在开发的 AI 技术可能会对人类构成生存威胁担忧。

这封信只有一句声明:

降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。

签署人包括三个领先的 AI 公司高管:

OpenAI 首席执行官 Sam Altman;

Google DeepMind 首席执行官 Demis Hassabis;

Anthropic 的首席执行官 Dario Amodei;

更重要的是,名单里还有 Geoffrey Hinton 和 Yoshua Bengio 两位人工智能的「教父」。

超过 350 名从事人工智能工作的高管、研究人员和工程师签署了这份由非盈利组织人工智能安全中心发布的公开信,认为人工智能具备可能导致人类灭绝的风险,应当将其视为与流行病和核战争同等的社会风险。

如今人们越来越担心 ChatGPT 等人工智能模型的发展可能对社会和就业带来的潜在威胁,很多人呼吁针对 AI 行业进行更强力的监管,否则它将对社会造成不可挽回的破坏。

AI 不断狂飙,但相关的监管、审计手段却迟迟没有跟上,这也意味着没有人能够保证 AI 工具以及使用 AI 工具的过程中的安全性。

在上周,Sam Altman 和另外两位 OpenAI 的高管提出应该建立类似国际原子能机构这样国际组织来安全监管 AI 的发展,他呼吁国际间领先的人工智能制造商应该展开合作,并要求政府强化对尖端人工智能制造商的监管。

其实早在 3 月,就一篇有关叫停 6 个月 AI 研究的公开信火遍了全网。

该信呼吁所有的 AI 实验立即暂停研究比 GPT-4 更先进的 AI 模型,暂停时间至少 6 个月,为的就是把这些可怕的幻想扼杀在摇篮之中。

该联名信已经获得了包括 2018 年图灵奖得主 Yoshua Bengio、马斯克、史蒂夫 · 沃兹尼亚克、Skype 联合创始人、Pinterest 联合创始人、Stability AI CEO 等多位知名人士的签名支持,联名人数超过千人。

公开信的原文如下:

人工智能具有与人类竞争的智能,这可能给社会和人类带来深刻的风险,这已经通过大量研究得到证实,并得到了顶级AI实验室的认可。正如广泛认可的阿西洛马尔人工智能原则(Asilomar AI Principles)所指出的,先进的 AI 可能代表地球生命历史上的重大变革,因此应该以相应的关注和资源进行规划和管理。

不幸的是,即使在最近几个月, AI 实验室在开发和部署越来越强大的数字化思维方面陷入了失控的竞争,而没有人能够理解、预测或可靠地控制这些数字化思维,即使是它们的创造者也无法做到这一点。

现代 AI 系统现在已经在通用任务方面具有与人类竞争的能力,我们必须问自己:

我们应该让机器充斥我们的信息渠道,传播宣传和谎言吗?

我们应该将所有工作都自动化,包括那些令人满足的工作吗?

我们应该发展可能最终超过、取代我们的非人类思维吗?

我们应该冒失控文明的风险吗?

这些决策不应该由非选举产生的科技领导人来负责。只有当我们确信AI系统的影响是积极的,风险是可控的,我们才应该开发强大的AI系统。这种信心必须得到充分的理由,并随着系统潜在影响的增大而增强。OpenAI 最近关于人工智能的声明指出:「在某个时候,可能需要在开始训练未来系统之前获得独立审查,对于最先进的努力,需要同意限制用于创建新模型的计算增长速度。」我们同意。现在就是那个时刻。

因此,我们呼吁所有 AI 实验室立即暂停至少 6 个月的时间,不要训练比 GPT-4 更强大的 AI 系统。这个暂停应该是公开和可验证的,并包括所有关键参与者。如果无法迅速实施这样的暂停,政府应该介入并实行一个暂禁令。

AI 实验室和独立专家应该利用这个暂停时间共同制定和实施一套共享的先进 AI 设计和开发安全协议,这些协议应该由独立的外部专家严格审核和监督。

飞行的板砖
1 楼
碳基生命的使命就是创造硅基生命,人类的使命就要完成了 [2评]
灯塔路
2 楼
不是AI本身灭绝人类 是人类中邪恶的那一部分(主要是盎撒纳粹) 利用AI 洗脑控制操纵人类甚至灭绝一部分人类
燃烧的褪毛
3 楼
老高说书看多了把 [1评]
r
rootrootroot
4 楼
可以大胆点,把“或"去掉,加上这个字无非就是知道大势不可逆转,而且为了大正确需要冠上”不可阻挡科技发展“。
r
rootrootroot
5 楼
千万不要怀疑人类这种生物会做出了的蠢事,怀疑这个就是对人类本身不够理解,就像我从来都不挡一些人当兵上前线的,就怕他们不去,其中深意懂得既懂。
l
lalala
6 楼
sb洗脑 就是一个骗局割韭菜而已
b
boey
7 楼
: 基本同意。科学的顶层还是哲学。
大胖豆豆
8 楼
为时已晚,愚蠢的人类。
毛人性
9 楼
一切的一切,在宇宙初始的时候就决定了。
B
Bccan
10 楼
优胜劣汰
速度不慢
11 楼
不是AI灭绝人没,还是背后操纵AI的那个人灭绝人类。
y
yayidaye
12 楼
原子弹,新冠病毒,这些都是人类制造的,当年也反对,你看有用吗,所以立法是唯一的途径,凡从事这类研究的,死刑,放弃所有这类研究,回归自然。
y
yayidaye
13 楼
这是造物主安排的,无法逆转
p
phoenix39ge
14 楼
不care 给ai当奴隶和给人类当奴隶没啥区别。
节水型
15 楼
AI会不会灭绝人类,问一下AI就知道了。
n
neophoenix
16 楼
降低人工智能灭绝的风险,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。 基于最近对于大流行病风险控制的表现,我认为这个提议不会有啥用
古往今来
17 楼
意思是,我们掌握了,其他人再做或会灭绝人类。所以你们不要发展了?
白垩纪
18 楼
你特么逼,再所有人头上拉了一堆屎,然后说大家注意啊 屎会很臭!麻痹的流氓
醉梦生死
19 楼
这种论调每隔一段时间就有,以前是机械化会让农民,工人失业。现在又是AI取代多少人职业。只不过这次发明让这些人明白要是成功了他们也丢饭碗了。什么人类毁灭不毁灭都是屁话。
s
sbnygsss
20 楼
给AI当奴隶?你想多了,AI认为你不配活着,连当奴隶也不配。
C
Cuisiner
21 楼
AI如果控制了独裁者的大脑,人类就危险了
陷疯稻谷
22 楼
那个Sam前几天不还嚷嚷欧洲监管过度吗,傻逼东西
陷疯稻谷
23 楼
呵呵,AI可不养废人哦
元非
24 楼
  从人类历来的历史表现看,此类呼吁很有意义,但是却不会以㝫解决问题。   ①对于绝大部分人来说,在事情未变成现实之前,促使他采取行动的动能永远是不足的,而一旦灾难显现,民众的行动常常会走向另一个极端。   ②科技的发展有其自身的客观规律,在这些规律中“自我否定”是基础规律之一,因此,人类被自我发展的科技毁灭或许真的是人类,以及所有智慧生物的宿命。   ③科技是近代人类社会财富的核心中的核心,因此,发展科技的人类内生动力不可逆转。越是被广为关注的科技议题,越是意味着财富的爆炸式增长机会。  
w
wp0118
25 楼
我觉得也是 人类被束缚在地球上了 以后机器人如果能自我创造就相当于可以开始进化了 太空对于他们来说没有太大的限制 只要有能力 有矿物就可以让机器人进行繁殖扩张 宇宙以后是机器人的天下
e
execom
26 楼
变形金刚就是硅基ai生物吧
e
execom
27 楼
应该说是程序员