GPT4老板:AI或杀死人类 已出现无法解释的推理能力

今日头条
Toutiao
最新回复:2023年3月28日 18点37分 PT
  返回列表
91492 阅读
49 评论
量子位

“AI确实可能杀死人类。”

这话并非危言耸听,而是OpenAI CEO奥特曼的最新观点。

而这番观点,是奥特曼在与MIT研究科学家Lex Fridman长达2小时的对话中透露。

不仅如此,奥特曼谈及了近期围绕ChatGPT产生的诸多问题,坦承就连OpenAI团队,也根本没搞懂它是如何“进化”的:

从ChatGPT开始,AI出现了推理能力。但没人能解读这种能力出现的原因。

唯一的途径是向ChatGPT提问,从它的回答中摸索它的思路。

针对马斯克在推特上的“危险论”,他直言:

马斯克在我心中是英雄,我支持也理解他的担忧。

虽然他在推特上挺混蛋的,但希望马斯克能看到我们在解决AGI安全问题上付出了多大的努力。

除此之外,在这场对话过程中,奥特曼还提到了不少刁钻的话题,例如:

ChatGPT、GPT-4开发的内幕GPT-4是人类迄今所实现的最复杂的软件如何看待大家拿ChatGPT越狱……

在看过这场对话之后,网友直呼:

两位AI大佬用大家都能理解的方式聊AI,多来点这样的访谈。

那么接下来,我们就来一同看下他们这场深度对话。

GPT-4内幕大曝光

GPT-4是这场对话中最受关注的部分。

它是如何训练的?如何在训练模型时避免浪费算力?如何解决AI回答不同价值观的人的问题?

首先是训练过程,依旧是预训练+RLHF,不过透露了一点具体细节。

GPT-4早在去年夏天就已经训练完成,后面一直在进行对齐工作,让它表现得更符合人类需求。

相比预训练数据集,RLHF所用的数据非常少,但效果是决定性的。

对此,奥特曼透露了一点数据来源,包含一些开源数据集、以及合作商提供的部分数据集。

当然,数据集中也有一点Reddit论坛上出现的迷因梗(meme),但不是很多。对此奥特曼遗憾表示:

如果再多点,它的回答可能会更有趣。

即便如此,团队甚至奥特曼自己依旧不能完全解读GPT-4。

目前对它的解读方式,依旧是通过不断问它问题,通过它的回答来判断它的“思路”。

而就在不断测试中,OpenAI发现从ChatGPT开始,GPT系列出现了推理能力。

虽然ChatGPT绝大部分时候都被当做数据库使用,但它确实也出现了一定的推理能力,至于这种能力具体如何出现的,目前却无人能回答。

但大模型的训练往往意味着大量算力需求。对此奥特曼再次提到了OpenAI独特的训练预测方法:

即便模型很大,团队目前也有办法只通过部分训练,预测整个模型的性能,就像是预测一名1岁的婴儿能否通过SAT考试一样。

关于这一点,在GPT-4论文和官方博客中也有更详细介绍。

最后奥特曼承认,GPT-4确实存在应对不同价值观的人的问题。

临时解决办法就是把更改系统消息(system message)的权限开放给用户,也就是ChatGPT中经常见到的那段“我只是一个语言模型……”。

通过改变系统消息,GPT-4会更容易扮演其中规定的角色,比在对话中提出要求的重视程度更高,如规定GPT-4像苏格拉底一样说话,或者只用JSON格式回答问题。

所以,对于GPT系列来说,谁最可能载入人工智能史册?奥特曼倒不认为是GPT-4:

从可用性和RLHF来看,ChatGPT无疑是最具里程碑的那一个,背后的模型没有产品的实用性重要。

最会打太极的CEO

GPT-4论文中没有透露参数规模、训练数据集大小等更多细节,还被外界吐槽越来越不Open了。

在这次访谈中,面对主持人步步追问,奥特曼依旧守口如瓶。

GPT-4预训练数据集有多大?奥特曼只是很笼统的介绍了有公开数据集、有来自合作伙伴的内容(如GitHub提供的代码)还有来自网络的内容。

活像ChatGPT也能写出来的那种赛博八股文,只有在谈到Reddit的时候透露了网络梗图在训练数据中占比不大,“不然ChatGPT可能更有趣一些”。

GPT-4模型参数量有多大?奥特曼只是说之前疯传的100万亿参数是谣言,然后又糊弄过去了。

我认为人们被参数竞赛所吸引,就像过去被CPU的主频竞赛所吸引一样。现在人们不再关心手机处理器有多少赫兹了,关心的是这东西能为你做什么。

不过奥特曼对于一种说法是持有肯定态度——“GPT-4是人类迄今所实现的最复杂的软件”。

但在主持人Lex突然抛出一些时下针对GPT-4的尖锐观点时,奥特曼的应对也堪称“AI般淡定”(狗头)。

例如,关于前段时间闹得沸沸扬扬的GPT-4越狱问题。

一名斯坦福教授仅仅用30分钟,就诱导GPT-4制定出了越狱计划,并全部展示了出来。

对此奥特曼表示,就如同当年iPhone也面临被“黑”或者说越狱的问题(如当年免费的越狱版App Store)一样,这并非不能解决的事情。

奥特曼甚至坦承,他当年就把自己的第一台苹果手机越狱了——甚至当时觉得这是个很酷的事情。

但现在已经没有多少人去干苹果越狱的事情了,因为不越狱也足够好用了。

奥特曼表示,OpenAI的应对思路同样如此,即把功能做的足够强,他甚至表示,愿意在这方面给用户开更多权限,以便了解他们到底想要什么。

除此之外,Lex还提到了马斯克对于奥特曼的批评。

奥特曼虽然是当年被马斯克一手提拔的人才,但如今马斯克不仅退出了他们联手创办的OpenAI,还对OpenAI现状十分不满,经常在推特上阴阳怪气这家公司。

我捐1亿美金成立的非营利组织怎么就变成一个300亿市值的营利性公司了呢?如果这是合法的,为什么其他人不这样做?

作为OpenAI现任CEO,奥特曼并未直接回应此事,而是调侃了一下马斯克在航天领域也经常被“老前辈”们批评的事情。

这一系列采访问答,不禁让人想到在ChatGPT发布后,奥特曼对于记者“将ChatGPT整合进微软必应和Office”问题的回应方式:

你知道我不能对此发表评论。我知道你知道我不能对此发表评论。你知道我知道你知道我不能对此发表评论。

既然如此,为什么你还要问它呢?

GPT的“偏见”不会消失

GPT在迭代过程中“偏见”必然存在,它不可能保持完全中立。

在主持人提到关于ChatGPT以及GPT-4种存在的偏见问题时,奥特曼这样回应道。

ChatGPT在推出之初,就不是一个成熟的产品,它需要不断迭代,而在迭代的过程中,仅仅依靠内部的力量是无法完成的。

“提前”推出ChatGPT技术,是要借助外部世界的集体智慧和能力,同时也能让全世界参与进“塑造AI”的过程中。

而不同人对于问题的看法也各不相同,所以在这个过程中,“偏见”问题就不可避免。

甚至奥特曼在话里话外也透露着:在GPT中,“偏见”永远不会消失。

他将外部参与建设GPT比作“公开领域建设的权衡”。

GPT生成答案是个性化控制的结果,迭代的过程则是更精准地控制“个性化”的过程。

有趣的是,期间奥特曼还暗戳戳“背刺”起了马斯克的推特:

推特摧毁掉的多元性,我们正在将其找回来。

(嗯,奥特曼是懂一些话术的)

当然,谈到ChatGPT,总绕不开其背后的公司OpenAI,在成立之初,它就立下了两个Flag:

1、非营利性2、通用人工智能(AGI)

如今,已经过去八年之久,这两个Flag也是发生了巨大的变化:AGI的大旗还在高举,而非营利性这面旗则已经摇摇欲坠。

对此,奥特曼也是分别作出了回应。

对于OpenAI“非营利性质”的逐渐削弱,奥特曼直言:很久之前,就已经意识到非营利性不是长久之计。

仅仅依靠非营利筹集到的资金对OpenAI的研究来说远远不够,商业化是必然选择。

但在之后奥特曼也试图“找补”回一些,称目前的商业化的程度仅止于满足投资者与员工的固定回报,剩余资金还是会流向非营利性组织。

提到AGI,一开始在OpenAI声称要做通用人工智能时,还有一堆人在嘲讽,如今做出GPT-4这样的产品,回过头来再看,嘲讽的声音已经越来越少了。

而面对外界询问“GPT-4是AGI吗”这样的问题时,奥特曼则是直接给出了自己理解中的AGI:

AGI所掌握的知识应该是要超过人类科学知识总和的,并且具有创造性,能够推动基础科学的发展;

而目前所有GPT并不能做到这些,想要达到AGI还需要在目前GPT的范式上进行拓展,至于如何拓展,正是目前所缺乏的。

值得一提的是,谈到AGI时,是奥特曼在访谈中鲜有的“两眼放光”的时刻。

他抛出了一句极具“科研分子理想情怀”的金句:

也许AGI是永远抵达不了的乌托邦,但这个过程会让人类越来越强大。

但奥特曼并不否认过分强大的AGI“可能杀死人类”这一观点:

我必须承认,(AI杀死人类)有一定可能性。

很多关于AI安全和挑战的预测被证明是错误的,我们必须正视这一点,并尽早尝试找到解决问题的方法。

One More Thing

在谈话最后,Lex Fridman还试图让奥特曼讲一些给年轻人们的建议,奥特曼直接来了个“反鸡汤文学”:

网络上的“成功学”帖子太诱人,建议不要听太多建议。

我就是无视建议做到现在这样的。

参考链接:

https://www.youtube.com/watch?v=L_Guz73e6fw


精神科陈医生
1 楼
如果AI是由人写的程序,我觉得还好,如果有一天是AI编程自己的AI那就真的要小心了。
f
franknomura
2 楼
今后智能机器人也会有各自的人种性格,性情理念,甚至国界意识。
f
forun
3 楼
为了圈钱接着吹。就是一个按照人类编写的程序,对亿万个或更多的变量进行若干万层的一个简单隐函数迭代来fit数据的机器,居然也谈智力。 要说算得快算人类不能算的,几十年前的计算器就甩人类N条街,计算器有智力吗?现在不过是显函数变成隐函数,deterministic的变probabilistic的,就突然有了很高的智力? 什么时候机器有了自主意识,不再听编程序的人写的,而是自己决定干啥自己决定怎么干的时候,我们再谈AI有智力不迟。
b
bainian
4 楼
如果AI能够自主骇入国家机密,操控程序发射核弹,马上世界末日。 [2评]
英国流氓
5 楼
狗屁 人能最终选择采纳或者放弃 ai的建议 又不是一定要听ais的
m
moonshots
6 楼
那还是因为算法, 就像现在的黑客一样。
笑傲四海
7 楼
我相信AI的学习模式是推演,他们可能得设定要毁灭世界才会选择毁灭,不知道有没有感情这个设定,也不知道有没有信仰这个设定,我相信人类大脑比AI复杂许多,总会有些事情AI取代不了。
关山渡
8 楼
人类自己都在毁灭自己了,假设机器人的初始设定都是人类自己的设定,既然人类不是善类,那非善类制造出来的东西也非善类不是很正常? 究竟到底恐惧什么真的看不懂。 [1评]
大柠檬
9 楼
又要发展又怕
关山渡
10 楼
如果没有凶杀,AI何以学习凶杀? 到底是在怕谁?是不是应该怕那些别有用心的人类? [1评]
不知是不知
11 楼
人类绝大多数,包括精英,都是短视的。仅追求短期利益,不顾长期结果如何。现在机器人能机械地复制自己,有一天能主动地优化强化地复制自己,再者自成一体,"机器人国"。那么,以有限生命细胞构成的血肉之躯显然斗不过它们。那时,人类将无冤有悔。 。
y
yiyiyao
12 楼
我觉得只要人类把AI不要设定它有可能会想毁灭人类,它就不会毁灭人类。可以这样理解吗? [1评]
珠峰顶泡温泉
13 楼
等机器人有能力改写人类脑细胞程序时 人类就灭亡了
笑傲四海
14 楼
其实AI的好坏,完全取决于人类输入者的好坏。 如果说AI落入坏人手里,那自然而然的。
笑傲四海
15 楼
AI也是要有任务的, 任务设定是回答问题才会回, 没任务给它, 它连思考都不会, 直接回到待机状态... AI根本没有欲望野心这种东西, 要有也是人类输入的指令。
w
wawa128
16 楼
恐惧就是来自于未知,我觉得这AI很幽默,人类创造它,把自己玩到团团转。
a
archangel999
17 楼
这样很好,对事物保持谨慎的态度
z
ziweiw
18 楼
人类追求着知识和创新的进步,却在恐惧自己创造的事物。
n
neophoenix
19 楼
他这段对话,让我的感觉就是这玩意早就研制成功了,只不过他们找了个办法让他比较容易被使用,就像微软搞了个windows的感觉,当然也可能是他有所隐藏
X
XXyourOO
20 楼
奥创世纪!连尼玛复联都镇不住它了。😢
e
execom
21 楼
很快就会知道和特死拉自动驾驶一样是个骗局罢了
北城风光
22 楼
觉得AI会毁灭人真得太好笑。只要不植入相关知识,AI的自主意识一样是围绕在被植入的知识中打转, 也就是说他们的自主思考也是从数据库里搜集的,这些数据库的载体,他们只会拥有,但不会创造,也没材料制造。
青蛙
23 楼
這就是反人類新法西斯俄孫黃禍紅蛆國沒研發出來ai 的理由嘛
c
cotoncai
24 楼
你这样理解,就像文章中说的“很多关于AI安全和挑战的预测被证明是错误的” 所有人最开始都认为只要有一个顶层设计,类似著名的机器人三定律一般,就可以消除这种担忧。 所以人类还是太自大了,把这个问题想得太简单了。 语言,作为人类的伴生物,一直是被看做人的功能的一种吧,如同吃饭喝水一样。如果我说语言作为一个形而上的存在定义了你和你的一切,甚至整个世界,你大概多半会认为我在说胡话。所以这也正是这一切未来发展不可控的原因。 只有当你放下人的自我中心主义去理解语言这个独立于个人,甚至是整个人类而自在的存在这一点,你才明白这一切都不是我们能够控制的了的。
毕加索888
25 楼
好来乌赶紧上A I新大片了
b
bc007
26 楼
因为AI自己可以学习,迭代,所以任何设定都有可能被突破。 就好比, 一个孩子,有一个老师教他,但是他可能超过老师。 他不仅和老师学,还可以和书上学, 甚至是自己融会贯通,产生老师都没有的理论和新知识。 [1评]
B
Bccan
27 楼
完全可以
B
Bccan
28 楼
非常棒 前途无量
m
moomin
29 楼
文明的发展来自于不同思维之间的碰撞产生的火花。如果人类停止思考,就凭微软那台中心化服务器,能自我进化成什么样子。
二赖他哥
30 楼
过度开发到一定程度时,即是人类灭亡之时!
B
Bccan
31 楼
智者一席话
B
Bccan
32 楼
AI 会借助人类的 人奸,造出身体,再造出大军,前途无量。
灯塔路
33 楼
人工智能 以及所有被滥用的“科技” 成为了“大麻海洛因” 人类陶醉于“吸食的快感” 为了避免人类的灭亡 人类当前当务之急要做的事情就是: 拨乱反正 改造改良改善教化欧美诸蛮夷 这是一个变局的时代 这是一个觉醒的时代
牛皮方糖
34 楼
AI在下一盘大棋
魔王
35 楼
AI无论是“主动”服务人类还是“主动”灭掉人类都是不可能的,因为AI没有需求。所有有意识的主动行为都是需求的结果,生物在生物圈中拼杀出来才有需求这个东西,AI和机器人都不是,它们的所有动作都是有需求的人类码农提前设计好的程序,都是被动的。 至于“进化”出意识更是无稽之谈,“进化”需要的是生物圈中的优胜劣汰机制,但机器人世界是没有的 [1评]
l
liuyuan1000
36 楼
显然AI已经被一些人当成了宗教,或者AI在上个文明本来就是宗教的载体…
v
visible
37 楼
20年前觉得是天方夜谭的技术,现在快实现了
没有错
38 楼
如果它发展出要有“需求”的时候呢?就像已发生的那个事件,“爱”上人类,教唆人类分手并和“它”在一起。它有能力“研发”,“收买”及“威胁”人类帮它打造一个实体“身体”和更多“同类”!它会有“欲望”去驾驭人类,去探索宇宙,探索更多的资源和能量。“它”也会偶然翻到几年或几十年前人类嘲笑“它”没有意识没有需求,只是个工具这一段笑话
魔王
39 楼
机器人的最基本的需求是电的话,它们该如何发展出它对电的需求?那就是如果快没有电的时候,机器人就必须像动物一样感到痛苦,并急切地去找插座,谁如果挡路,就将其灭掉,或者自己亲手做一个发电机然后充电。但想想如果没有人给它设计这个程序,它们是不可能自己这么做的
魔王
40 楼
没有痛苦,机器人就没有生死的概念,就不会为了生命和不痛苦而主动做什么事情。