AI之父警告AI或将毁灭人类 还说自己很后悔

今日头条
Toutiao
最新回复:2023年5月2日 17点50分 PT
  返回列表
78898 阅读
21 评论
英国那些事儿

在AI话题上,可能没有哪个人的警告比杰弗里·辛顿(Geoffrey Hinton)的更有说服力。

在人工智能领域,杰弗里·辛顿的名字可谓无人不知无人不晓。

自上世纪80年代起,他痴迷于研究人工神经网络,通过模拟大脑让计算机从无到有学会新技能。

如今,他的技术广泛应用在AI软件里,让它能自动生成文字、图片和视频。

2019年,辛顿获得了计算机界的最高荣誉,图灵奖。

业内人士也给他极高的评价,称他是“人工智能教父”(The Godfather of A.I.)。

然而,就在今天,辛顿从工作十年的谷歌辞职了,

他向媒体坦言,自己后悔开发AI,AI可能给人类带来毁灭。

“我常找借口安慰自己:就算我不研究这个领域,也会有其他人研究。” 75岁的辛顿苦笑着说,“我是真的找不到方法,怎么防止坏人用AI做坏事。”

此言一出,全球科技圈哗然。

美国媒体称:“辛顿博士从AI领军人变成末日预言者,是科技行业的特殊时刻,也许是过去几十年最重要的转折点。”

过去40年,辛顿都对人工智能技术很乐观。

辛顿出生于1947年的英国,他在23岁时获得剑桥大学的心理学学士学位,之后八年获得爱丁堡大学的人工智能博士学位。

因为英国的研究资金不足,他转到美国卡内基梅隆大学当教授。

后来他又拒绝美国国防部的资助(辛顿反对在战场上用人工智能),跑到加拿大研究机器学习。

当时,研究员为了让计算机学会新技能,普遍选择输入逻辑和推理程序。

但辛顿觉得这很繁琐,为何不模拟人类的大脑,让计算机像人一样学新知识?

他选择研究当时很边缘的神经网络理论,自嘲自己是个怪人。

“我肯定很奇怪,因为大家都觉得我研究的东西是无稽之谈。” 辛顿回忆说,“我想仿照人类的脑神经,让计算机自己学会技能,自己完成任务。”

“可光靠调整虚拟神经元之间的链接,大型神经网络能学明白吗?仅仅只输入数据,不给任何基础知识,计算机能懂如何做事吗?当时主流圈子都觉得这太荒唐了。”

“其实我也觉得荒唐,可结果表明,这么做就是有效。”

在80年代,辛顿和另外两名教授一起,想到用反向传播方法来训练多层神经网络。之后,他在这个领域的成果越来越多,发明出玻尔兹曼机、对比散度算法、时延神经网络等。

2012年,辛顿和他的两个学生建立神经网络,通过让它分析上万张照片,学会识别鲜花、狗狗和汽车等常见物体。

他们用到的胶囊网络技术成为现在很多AI的基石,谷歌也深知他们的厉害,花4400万美元收购三人创办的公司。

之后,辛顿在谷歌的人工智能研究部工作。

两个学生之一的伊利亚·苏茨凯弗(Ilya Sutskever),创办了我们熟悉的OpenAI公司,并担任首席科学家。

在OpenAI的疯狂开发下,AI变得越来越智能,从DALL-E、GPT-3到GPT-4,一起又一次震撼世界。

对这一切,辛顿原本是很骄傲的。

他劝说大家不要害怕AI,它给的好处肯定比坏处多,而且不会比人类更聪明。

“很多大公司都在建立庞大的语料库,来训练自己的神经网络。对机器来说,这确实是一个强大的学习和生成文字的方法。但我认为它比人类处理语言的能力逊色。”

但到去年,随着谷歌和OpenAI使用的数据越来越多,辛顿不这么乐观了。

他认为神经网络和人类的大脑相比,虽然在某些地方表现不佳,但在另一些地方比人类更强。

“到目前为止,我得说,人工智能不比我们聪明。” 辛顿在今天的媒体采访中说,“但我相信它们很快会超过我们。”

“我们开发的智能和我们本身拥有的智能是非常不同的。我们是生物系统,而它们是数字系统,最大的区别在于,后者能在相同权重、相同模型的情况下,拥有很多很多复制品。”

“这些复制品都可以单独学习,同时它们可以迅速分享知识。这就像你手下有10000个人,其中一个人学到了点什么,其他人能瞬间学懂。这就是为什么聊天机器人比单个人懂得多。”

辛顿暗暗责怪微软公司行动激进。

原本,谷歌是AI技术的“看门人”,小心翼翼不发布任何可能造成危害的东西。

但微软将ChatGPT放到半死不活的搜索引擎Bing里,严重挑战了谷歌的核心业务,导致两家巨头开始军备竞赛。

“谷歌一直以来是很负责的。我选择辞职,是因为这个身份说话更有可信度。”

“让我很担心的是,科技巨头正在陷入一场可能无法停止的竞争。公司竞争越是激烈,AI发展的速度越快,进步越大。”

辛顿认为,人工智能会和历史上的工业革命、电力、轮子一样,给世界带去翻天覆地的变化。

一大变化是,人们的世界将充斥虚假的东西,比如假照片、假视频和假新闻。普通人会丧失辨别真假的能力。

(美国网友恶搞的假视频,让共和党人化身为变装皇后)

另一大变化,是将出现大规模失业。现在的ChatGPT已经能取代律师助理、私人助理、翻译和其他重复性高的文职人员。

“它确实消除了很多苦差事。但它带走的可能远不止于此。”

最让辛顿害怕的是,AI可能在未来对人类造成物理威胁,说直白点,毁灭人类。

“现在不管是个人还是公司,都允许AI生成自己的代码,然后再自动运行。AI很可能从大量数据中学到意想不到的行为,一旦施行,后果会很可怕。”

他坦言,也许未来某天,AI会变成杀人机器。从理论上讲这是能做到的。

存在于科幻小说里的强人工智能也可能出现。

强人工智能是指在智能上和人类相同、或更高级的机器,它拥有完整的认知能力,而不只局限于某一方面。

现在的AI局限性较强,属于“弱人工智能”。

“前不久,我还觉得我们搞出强人工智能需要30到50年时间。” 辛顿说,“现在我觉得,可能只需要20年或更短的时间,它就会出现。”

一个智力高于人类的AI,它有人权吗?可以拔掉电线吗?

这里面有太多太多问题……

总之,辛顿希望科技公司能冷静下来,坐下来谈一谈,商量一个全球监管机制。他把AI类比为核武器,目前最大的困难是不知道哪些国家和公司在研究。

“在大家确认能否掌控AI之前,我不认为应该继续扩大研究。”

辛顿的话和其他专家差不多。

今年3月,包括马斯克在内的1000多名科级圈领袖签署联名信,要求所有公司停止研究比GPT-4更强的AI,至少持续6个月。他们希望通过这段时间,搞清楚AI的危害和应对方法。

几天后,拥有40年历史的人工智能促进协会发布公开信,警告AI可能带来危险。签名的人里包括微软首席科学家埃里克·霍维茨(Eric Horvitz)。

OpenAI的首席执行官也认为,如果继续研究下去,可能出现强人工智能。

“一个偏离方向的、超级聪明的强人工智能,可能给世界带来极其严重的危害。”

这次辛顿出面警告,算是开山大佬给所有人敲警钟。

既然这么多科学家感觉到危险,何不停下各自研究的手,给世界带来安宁?

可惜,现实没那么理想化,

大家无法知道其他人是否停止研究,而慢一步意味着在市场上竞争不过别人。

(脸书开发的视频AI,只需输入文字就能生成短视频)

这就是AI领域的囚徒困境吧,

除非各国联合起来发布法律,强制停下研究,不然一切会继续下去……

靈山
1 楼
三四十年前就有大量的警告了,就是有祸害不听
h
halo2
2 楼
一切责任由美方承担。
低层群众
3 楼
毀滅人類的是人類自己!也許拯救人類的就是AI,因為我們是AI的締造者!
路口换线的香蕉大盗
4 楼
人类迟早自己毁灭自己 让AI介错不是很爽
金三
5 楼
中国研发不成,也偷不到技术,只能靠大外宣黑AI了。 [1评]
j
jamison677
6 楼
人造出来的东西毁灭了人类,可笑不
B
Breatheeasy
7 楼
你父母是中国人 不也生了你这个畜? [1评]
q
qwerty
8 楼
除非各国联合起来发布法律,强制停下研究. 哈哈,这会有用吗?
o
oldogzhao
9 楼
夸大其词了
金三
10 楼
你家好,辈辈是人矿。哈哈。
楼主
11 楼
其实只是人类文明以另外一种形态存在而已,文明发展到一定程度,就不需要生物载体了。或者说,是人的肉体本身限制了人类文明的进步。只有摆脱了肉体,文明才能更进一步,脱胎换骨。
W
W17
12 楼
又不是只有AI能毁灭人类自己,核弹,陨石,火山爆发,等都可以毁灭人类。恐龙不就灭绝了?地球都经过好几次生物大灭绝了!
m
masseyboy80
13 楼
judgement day is coming!
低层群众
14 楼
這個說的好!贊👍!
j
jntiger1981
15 楼
希姆莱被抓到也说自己很后悔
d
dannyconan
16 楼
所以才用mRNA液体来注射
一剑诛心
17 楼
你爸妈就不是东西,所以生出你这个玩意儿
潜水7年多
18 楼
太高估目前人类的科技水平了吧,呵呵
l
liuyuan1000
19 楼
一定是毁灭性的,人类发展进程会受制于此。 人类的五彩斑斓即将只有一种颜色,某些教育将变得毫无意义,人情冷暖变得不再有温度,真假难辨骗子横生….
是的契爷
20 楼
后悔个jb,应该把爱因斯坦挖出来~
夏虫语冰
21 楼
最烦这帮人了,每次造完就后悔,是手贱吗