著名“AI教父”从谷歌离职:我为发展AI而后悔

今日头条
Toutiao
最新回复:2023年5月2日 13点1分 PT
  返回列表
63212 阅读
21 评论
AI哨所



AI教父辛顿

凤凰网科技讯 《AI哨所》北京时间5月2日消息,有“AI教父”之称的杰弗里·辛顿(Geoffrey Hinton)周一宣布,他已经从谷歌公司离职。半个世纪以来,辛顿一直在培养ChatGPT等聊天机器人背后的核心技术。但是现在,他担心AI会造成严重危害。

凤凰网科技《AI哨所》了解到,辛顿是AI先锋。2012年,辛顿博士和他在多伦多大学所带的两名研究生开发的技术,成为了AI系统的知识基础。如今,科技行业的巨头们认为,AI系统是它们未来发展的关键。

为发展AI而后悔

然而就在周一,他正式加入了越来越多的AI批评人士的行列。他们认为,这些公司积极开发基于生成式AI的产品,ChatGPT等热门聊天机器人等被快速研发,这是在奔向危险。

辛顿说,他已经辞去了谷歌的工作,以便自己可以自由地谈论AI的风险。他已经在谷歌工作了十多年,成为该领域最受尊敬的人物之一。辛顿表示,他现在对自己一生从事的工作感到有些后悔。

“我用平常的借口来安慰自己:就算我没做,别人也会做的。”上周,辛顿在多伦多家中的餐厅接受了长篇采访时称。那里距离他和学生取得AI突破的地方只有几步之遥。



辛顿博士

辛顿从AI开拓者到末日预言者的转变,标志着科技行业在这个几十年来也许最重要的拐点上经历了一个非凡时刻。业界领袖认为,新的AI系统可能与20世纪90年代初推出的网络浏览器一样重要,并可能引发从药物研究到教育等领域的突破。

但是,令许多业内人士苦恼的是,他们担心自己正在向野外释放一些危险东西。生成式AI已经可以成为制造虚假信息的工具。很快,它可能会对就业构成威胁。科技行业最大的担忧者表示,在未来的某个时候,它可能会对人类构成威胁。

辛顿对此表示,“很难想象你能如何阻止坏人利用它做坏事”。

自从OpenAI在3月份发布了最新版ChatGPT-4模型后,包括马斯克在内的上千名科技领袖和高管签署联名信,呼吁暂停开发比ChatGPT-4更先进模型6个月时间,因为AI“对社会和人类构成了深刻风险”。几天后,有40年历史的学术组织人工智能促进协会的19位现任和前任领导人发表了他们自己的公开信,警告AI的风险。该组织包括微软首席科学官埃里克·霍维茨(Eric Horvitz)。微软已将OpenAI的技术应用于一系列产品,包括必应搜索引擎。

辛顿没有在这两封信上签名。他说,在辞职之前,他不想公开批评谷歌或其他公司。上个月,他通知公司他将辞职。周四,他与谷歌母公司Alphabet CEO桑达尔·皮查伊(Sundar Pichai)通了电话。他拒绝公开讨论与皮查伊谈话的细节。

谷歌首席科学家杰夫·迪恩(Jeff Dean)在一份声明中表示:“我们仍然致力于对AI采取负责任的态度。我们在不断学习了解新出现的风险的同时,也在大胆创新。”

AI危险更快到来

辛顿认为,随着企业改进AI系统,它们会变得越来越危险。“看看五年前和现在的情况,”他在谈到AI技术时说,“接受差异并将其传播出去。太可怕了。”

他表示,直到去年,谷歌一直是这项技术的“适当管理者”,小心翼翼地不释放可能造成伤害的东西。但是现在,微软用聊天机器人增强了必应搜索引擎,挑战谷歌的核心业务,导致谷歌也在竞相部署同样的技术。辛顿说,科技巨头陷入了一场可能无法阻止的竞争。

他目前最担心的是,互联网将充斥着虚假照片、视频和文字,普通人将“无法再知道什么是真的”。他还担心AI技术最终会颠覆就业市场。如今,像ChatGPT这样的聊天机器人往往是对人类工作者的补充,但它们也可能取代律师助理、个人助理、翻译和其他处理机械化任务的人。“它省去了繁重的工作,但它带走的可能不止这些。”辛顿称。

未来,他担心未来版本的AI技术会对人类构成威胁,因为它们经常从分析的大量数据中学习意想不到的行为。他说,这成了一个问题,因为个人和公司不仅允许AI系统生成自己的计算机代码,还允许它们自己运行这些代码。他担心有一天真正的自主化武器——那些杀人机器人——会成为现实。

“一些人相信,这种东西实际上会变得比人更聪明,”他表示,“但大多数人认为这还很遥远。 我也曾认为这还很遥远。我认为这需要30到50年甚至更长的时间。显然,我现在不再这么想了。”

辛顿说,当人们过去问他如何能研究有潜在危险的技术时,他会转述美国“原子弹之父”罗伯特·奥本海默(Robert Oppenheimer)的话:“当你看到某种从技术上感觉不错的东西时,你就会去做。”凤凰网科技《AI哨所》对此将持续关注。

v
voiceofme
1 楼
GenAI 要危害人类需要两个条件:1, Self-consciousness 。 2,action to impact physical world。 其中,自我意识是不可能达到的,即使模型可以自我训练自我迭代。
b
bia
2 楼
voiceofme 发表评论于 2023-05-01 20:14:33 GenAI 要危害人类需要两个条件:1, Self-consciousness 。 2,action to impact physical world。 其中,自我意识是不可能达到的,即使模型可以自我训练自我迭代。 ==================================================================== 很快的,只要AI能自己生产自己(self reproduction),人类就完蛋了
L
LaBrisa
3 楼
开弓没有回头箭。人类等着接招吧。 接得好,在生产力极大发展后可能会进入人人有基本收入,民众可以依兴趣学习、享受创作的喜悦而不必辛勤劳作赖以维生的类社会主义社会;接不好,人类就沦为二等公民,甚至被开除球籍了。
z
zhuwuji
4 楼
我最担心的反而是马斯克的类人机器人。一个AI智商再高也不可怕,可怕的一群AI成为一个AI社会和种群,那将所向披靡
s
school43
5 楼
后悔的这种屁话就不要说了,得了便宜还卖乖!解铃还需系铃人,道高一尺魔高一丈……回头是不可能了,想新的办法和出路才是正道
为什么到处要注册
6 楼
LaBrisa 发表评论于 2023-05-01 21:04:37 开弓没有回头箭。人类等着接招吧。 接得好,在生产力极大发展后可能会进入人人有基本收入,民众可以依兴趣学习、享受创作的喜悦而不必辛勤劳作赖以维生的类社会主义社会;接不好,人类就沦为二等公民,甚至被开除球籍了。 ============= 必然没可能接好。想都不用想
吴艳
7 楼
明明就是被谷歌炒掉的,花了那么多钱雇他,什么几把都没做出来,黔驴技穷了。
吴艳
8 楼
明明就是被谷歌炒掉的,花了那么多钱雇他,什么都没做出来,黔驴技穷了。
旁观者XWY
9 楼
原子弹也是人类创造出来的,随时可以毁掉地球。人工智能不会毁掉地球,但会毁掉人类本身。
旁观者XWY
10 楼
以后真人个个愚不可及,假人个个聪明无比。就像现在人类看大猩猩。
M
Maui2021
11 楼
没有Geoffrey Hinton,就没有今天的machine learning. 吴艳 发表评论于 2023-05-02 00:36:43明明就是被谷歌炒掉的,花了那么多钱雇他,什么几把都没做出来,黔驴技穷了。
不允许的笔名
12 楼
吴艳 发表评论于 2023-05-02 00:42:05 明明就是被谷歌炒掉的,花了那么多钱雇他,什么都没做出来,黔驴技穷了。 ======== 你懂个P 现在的AI都是根据他早年的研究发展的,包括GPT实际上已经看到局限。 他最新的FF理论很可能推翻所有现在开发的产品。 我有一种感觉,他可能加入马斯克的X
s
smart321
13 楼
科技发展不是一个人做出来的,没有他一样有AI,他夸大了自己的作用
百家争鸣2012
14 楼
AI不可怕,可怕的是利用AI做坏事的人。
b
blondiedoggy
15 楼
那希特勒可不可以为自己辩解说,反正我不屠杀犹太人和发动战争,也会有另一个希特勒出现
O
Observer12
16 楼
这麽老了,意识出现幻觉可以理解
弯刀月
17 楼
AI可以创造自己的交流语言。让人看不懂。然后。。。。
不好吃懒做
18 楼
现在他担心AI会造成严重危害 - Don't worry, the same like any new tech/thing that will bring somethings good and bad.
泥川
19 楼
反向传播算法,是当前深度学习和AI的基础。 Seppo Linnainmaa,芬兰数学家和计算机科学家, 在1970年的硕士论文中首次提出了有效的反向传播算法。 Ronald Williams,东北大学计算机科学教授,在1985年一篇被广泛引用的论文里,将反向传播算法应用到多层神经网络。 对多层神经网络应用的推广普及,被称为AI教父的辛顿,起了很大作用,写过书,带过很多学生,但是AI的基础算法不是他发明的。
泥川
20 楼
公司要做产品,搞理论的其实是中看不中用。OpenAI做出ChatGPT的是一帮年轻人,不是靠什么大牛,就是通过无数次的试错,无数工程上的改进。GPT所涌现出来的能力,至今没有任何理论可以解释。
徐州雪花大如习
21 楼
应该还不至于像电影终结者那样可怕,但有不少行业可能会被人工智能取代。技术是把双刃剑,人总是寻求更锋利的剑,但弄得不好会伤到自己。一般自己不会,也不建议别人去买最锋利的菜刀。因为人会有犯错的时候,锋利的刀带来更大的伤害。