李飞飞:大模型没有主观感觉能力,多少亿参数都不行

今日头条
Toutiao
最新回复:2024年5月27日 21点40分 PT
  返回列表
69240 阅读
24 评论
机器之心

“空间智能是人工智能拼图中的关键一环。”知名“AI 教母”李飞飞曾这样表示。

近段时间,李飞飞开始把目光瞄准到这一领域,并为此创建了一家初创公司。她曾表示,“大自然创造了一个以空间智能为动力的观察和行动的良性循环。”她所在的斯坦福大学实验室正在尝试教计算机“如何在三维世界中行动”,例如,使用大型语言模型让一个机械臂根据口头指令执行开门、做三明治等任务。

我们不难看出,李飞飞口中的空间智能也有大模型的参与。

如今,随着技术的发展,LLM 在多个方面表现出超人类智能。然而关于 LLM 的争议也在不断增加,其中,LLM 到底有没有感觉能力,大家意见不一。

近日,李飞飞连同斯坦福大学以人为本人工智能研究所 HAI 联合主任 John Etchemendy 教授联合撰写了一篇文章,文章对 AI 到底有没有感觉能力(sentient)进行了深入探讨。

本文中,我们把 sentient 一词翻译成感觉,因为 AI 领域感知一词通常对应 perception,也不适合翻译成意识。读者们有合适的翻译可以留言讨论。

文中驳斥了 LLM 有感觉的说法,李飞飞列举了大量示例来证明这一观点。

在提到超级计算机深蓝时,李飞飞表示,虽然这款下棋程序可以击败世界冠军,但如果房间突发意外情况如着火,深蓝不会有停止游戏的意识,而人类会有。

同样地,当人类产生饥饿说出“我饿了”时,人类和 LLM 背后所隐藏的行为链条是完全不同的。LLM 只是产生“我饿了”这个字符串的事实,它没有身体,甚至不可能有饥饿那种感觉。

更进一步,李飞飞认为人类饥饿时,伴随一系列生理反应,如低血糖、肚子咕咕叫等,而 LLM 无法拥有这些状态的主观经验,即无法有感觉能力,只是概率性地完成任务而已。

人类有物理躯体,可以感觉一切,但 LLM 没有,当 LLM 说出类似的“自己脚趾痛”时,大家都不会相信,因为它根本就没有脚趾,它只是一个编码在硅片上的数学模型。

李飞飞驳斥 LLM 具有感觉能力

通用人工智能(AGI)是用来描述一种至少与人类在各种方面表现出相同智能的人工智能体的术语,涵盖人类所展示(或能够展示)的所有智能方式。这是我们曾经称之为人工智能的概念,直到我们开始创建在有限领域表现出智能的程序和设备 —— 如下棋、语言翻译、清洁客厅等。

增加“G”这个字母的必要性,来自于由人工智能驱动系统的普及,但这些系统只专注于单一或极少数任务。

IBM 的深蓝是一款令人印象深刻的早期下棋程序,它可以击败世界冠军 Garry Kasparov,但如果房间着火了,它却不会有停止游戏的意识。

现在,通用智能有点像一个神话——如果人们认为自己拥有它的话,可能就会这么认为。

人类可以在动物界找到许多智能行为的例子,它们在类似任务上的表现远比人类本身表现更好。智能并非完全通用,但足以在大多数环境中完成人们想要完成的事情。

如果当人类感到饥饿时,可以找到附近的超市;当房间着火时,则会自主地寻找出口。

智能的基本特征之一是“感觉”,即拥有主观经验的能力 —— 比如感受饥饿、品尝苹果或看到红色是什么样的。

感觉是通往智能的关键步骤之一。

于 2022 年 11 月发布的 ChatGPT,标志着大型语言模型(LLMs)时代的开始。

这立即引发了一场激烈的争论,所有人都在讨论这些算法是否实际上具有感觉能力。以 LLM 为基础的人工智能具有感觉能力的可能性引发了媒体疯狂报道,也深刻影响了全球一些政策制定的转向。

最突出的观点是,“有感觉的人工智能”的出现可能对人类非常危险,可能带来“灭绝级”的影响或至少是“存在危机”的。毕竟,一个有感觉的人工智能可能会发展出自己的希望和欲望,而不能保证它们不会与人们相冲突。

李飞飞和 Etchemendy 的主要观点是反驳“有感觉的人工智能”阵营最常提出的辩护,而该辩护基于 LLMs 可能已经有了“主观经验”的能力。

为什么有些人认为 AI 已经获得了感觉能力

在过去的几个月里,他们俩与 AI 领域的许多同行进行了激烈的辩论和交谈,包括与一些最杰出的和具有开创性的 AI 科学家进行了一对一的深入交流。

关于 AI 是否已经获得了感觉能力的话题,一直是一个突出的问题。其中少数人坚信 AI 已经具有了感觉能力。以下是其中一位最为积极支持者的论点,相当程度上代表了“有感觉的 AI”阵营:

AI 是有感觉的,因为它能报告主观经验。主观经验是意识的标志,其特征在于能够自我所知或所感。例如,当你说“我在吃过一顿美味的饭后感到高兴”时,我作为一个人实际上没有直接证据感觉你的主观体验。但既然你这样表达了,我会默认相信你确实经历了这种主观体验,因此你是有意识的。这种逻辑也被用来推论 AI ‍‍的意识状态。

现在,让我们将同样的“规则”应用到 LLMs 上。就像任何人一样,我无法访问 LLMs 的内部状态。但我可以查询它的主观经验。我可以问“你感到饥饿吗?”它实际上可以告诉我是或否。此外,它还可以明确地与我分享它的“主观经验”,几乎涉及任何事情,从看到红色到吃完饭后感到幸福。因此,我没有理由不相信它是有意识的或不知道自己的主观经验,就像我没有理由不相信你是有意识的一样。在这两种情况下,我的证据完全相同。

为什么认为“AI 有感觉能力”是错误的

虽然乍看之下这个论点似乎有道理,但实际上是错误的。因为李飞飞和 Etchemendy 教授提供的证据在这两种情况下并不完全相同,甚至差距很大。

当你说“我饿了”时,我得出你正在经历饥饿的结论是基于一系列大量的情况。首先,是你的报告 —— 你说的话,可能还包括其他行为证据,比如你的肚子咕咕叫。其次,是没有相反证据的存在,比如你刚吃完五道菜的大餐,就不太可能会说饿。最后,也是最重要的,是你拥有一个像我一样的物理身体,这个身体需要定期进食和饮水,遇冷会感到寒冷,遇热会感到炎热等等。

现在将这与他们二人对 LLM 的证据进行比较。

唯一共同的是报告,即 LLM 可以产生“我饿了”这个字符串的事实。但相似之处就到此为止了。事实上,LLM 没有身体,甚至不会有感到饥饿那种感觉。

如果 LLM 说:“我的左大脚趾很疼”,人们会得出它左大脚趾确实很疼的结论吗?答案是否定的,因为它根本就没有左大脚趾。

同样地,当它说它饿了时,人们实际上可以确定它并不饿,因为它没有感到饥饿所必需的生理结构。

当人类感到饥饿时,会感觉到一系列生理状态 —— 低血糖、空腹发出的咕咕声等 —— 而 LLM 根本没有这些,就像它没有嘴巴放食物进去,也没有胃去消化食物一样。

人们知道这不是真的,LLM 的主张也无法改变这个事实。

所有感觉 —— 饥饿、感到疼痛、看到红色、爱上某人 —— 都是由 LLM 根本没有的生理状态引起的。

因此,LLM 无法拥有这些状态的主观经验。

换句话说,它无法有感觉能力。

LLM 只是一个编码在硅片上的数学模型。

它不像人类那样是一个具有身体的存在。它不是需要进食、饮水、繁殖、经历情感、生病和最终死亡的“生命”。

当人类和 LLM 同样地说出“我饿了”时,背后所隐藏的行为链条是完全不同的。

理解人类生成词序列的方式与 LLM 生成相同词序列的方式之间的深刻差异,这一点至关重要。

当人们说“我饿了”时,是在报告感觉生理状态。

而当一个 LLM 生成序列“I am hungry”时,它只是生成当前提示中最可能的完成序列。它做的事情与在不同提示下生成“I am not hungry”或在另一个提示下生成“The moon is made of green cheese”时完全相同。

这些都不是它本就不存在的生理状态的报告,它们只是在概率性地完成而已。

很遗憾的是,具有感觉能力的人工智能时代还尚未到来。

两位作者认为,研究者还没有实现有感觉的人工智能,而更大型的语言模型也不会使人们实现这一目标。

如果人类想在人工智能系统中重新创建这种现象,就需要更好地理解有感觉的生物系统中“感觉是如何产生的”。

人们不会在下一个 ChatGPT 的迭代中偶然发现“感觉”。

在李飞飞转发的 X(原推特)下面,大家讨论的也是非常激烈,有人表示:“当今的 LLM 有两种类型:一种是完全基于文本进行训练,另一种则是基于图像、文本甚至音频进行训练。第一种类型确实不具备所谓的感觉能力,但第二种类型具有物理直觉,因此可以说它具有感觉能力。”

而另一位网友则追随 Yann Lecun 的脚步,表示:“一只喵星人的智能程度都远高于最大型的 LLM。”

参考链接:

https://time.com/collection/time100-voices/6980134/ai-llm-not-sentient/

https://x.com/drfeifei/status/1793753017701069233

j
jujubi
1 楼
李飞飞的观点是错误的。大模型最终能够建立人类主观意识和物理世界上的联结,就像现在的大模型已经可以了解牛顿世界的物理规则和物与物之间的关联一样。这种关联需要大模型几年的迭代进化就能完成。将来的大模型一定能了解爱因斯坦世界的物理规则和物与物的联结。 [1评]
s
shanshi
2 楼
这是个哲学问题。有没有可能建立虚拟感觉呢?感觉这种东西也是可以数字化的,这样最起码在逻辑链条上就不会缺环。 [1评]
金拱门汉堡包
3 楼
目前没有,以后未必会有,但可能会有。
铗归来
4 楼
openai 可能到头了, 不是一场革命, 这是一个不能转化的重大技术进步。
n
neophoenix
5 楼
那女人生孩子,男人被踢蛋蛋的感觉互相能感受么,有感觉的多了,也不是都出现智能,两者之间没有必然联系
阳痿男
6 楼
“主关”本身就是不存在的。你的“意识”是人类作为生物体演化出来的解决复杂问题的工具而已。一旦产生了“意识”,就必须给“意识”一个合理的解释,这是意识的工作原理。生物体在“意识”里演化出了“主关”,解决了这个问题。
N
NightCafe
7 楼
AI 不能感觉到饿 那是因为他需要的不是我们人类理解的食物 他需要的是电力 他能检测到电池电量低 那他就可以说 饿了 需要充电 那才算是他的食物
路人丫
8 楼
呵呵。。。为什么感觉必定要和生理反应相关联系起来。AI也许感觉不到饿了。但如果AI感觉到愤怒,那后果也许就很可怕了。🤣 [1评]
君均臣诚
9 楼
其实,这些都可以建立,没啥稀奇的,但没有灵与魂才是最重要的!所以它要杀人时,它根本不知道自己在做什么!这才是AI可怕的,它不知道死亡是啥,FSD也一样,所以碰撞只是毫无意义的不许!
n
newerer
10 楼
: 我很好奇,你能不能告诉我一下你的教育水平? 你这里扯到爱因斯的是因为。。。? [1评]
j
jujubi
11 楼
呵呵,和爱因斯坦一样是一个小小公务员。 [1评]
x
xiaoss188g
12 楼
深蓝把火当成对手,就会有感觉了。既然棋手都能应付何况火呢?没有只能说还没有考虑,考虑了就有了
x
xiaoss188g
13 楼
我2006年就写了一篇课堂作业讲计算机能繁殖能感知
n
newerer
14 楼
: 你咋不说和老毛一样是个小小的图书馆管理员呢? 爱因斯坦智商160到180 你估计就是80? [1评]
j
jujubi
15 楼
呵呵,你忘了?不是你在问我扯到爱因斯坦的原因啊?可见你的记性不好。哈哈哈。 》〉》你这里扯到爱因斯的是因为。。。?
m
myporn001
16 楼
视觉、听觉已经没有问题,加摄像头、录音设备即可。嗅觉问题也不大。 触觉目前很难,痛觉更难。
m
myporn001
17 楼
没有五官,没有痛觉,不可能拥有情绪。
南方兔儿爷
18 楼
是的,感知能力是一切的基础,是一切欲望(驱动力)和改变(恐惧)的原动力。例如爱欲AI不可能理解必须拥有的驱动,战争中的征服AI可能理解为彻底消灭。所以做出选择的时候会有很大区别。
j
jpeagle
19 楼
模拟人类不等于模拟生物的一切。 大模型能够学习知识,储存知识,分析知识和提供建议就是一个伟大的技术进步。 感知世界,是下一代的世界有生体的事情。
西
西门大大
20 楼
这个李飞格局还是小了
m
marvels
21 楼
为什么智能生命必须要具有感觉呢,纯粹以数据为基础生成智慧来描述宇宙或解决问题,不可以么,人类局限于创造类似自己的生命是多么狭隘。
打哈欠
22 楼
不消耗氧气怎么可能有智能呢
映像伦理审查
23 楼
先弄出来硅基生命再说吧