程序员坚称AI有人格 欧美人呼吁:AI的命也是命

今日头条
Toutiao
最新回复:2022年6月15日 14点22分 PT
  返回列表
63755 阅读
34 评论
地球人研究报告

Google AI机器人的话题,已经一连几天成为科技圈的热点:

一位名为布莱克·莱莫因的工程师,自称Google研发的聊天机器人LaMDA 已经有了自我意识——他认为这个机器人已经有相同于7、8岁小孩的认知与表达能力。

而这名工程师在发布这一观点后,很快便以「违反保密条约」等原因遭到Google的停职。

在人工智能如此受推行的当今年代,这显然是条噱头满满的新闻。但由于人们对于类似的“奇闻逸事”早已屡见不鲜,因此在看到此新闻的当下,便自动在脑内做出了两种推论:要么是炒作,要么是这位工程师莱莫因“走火入魔”了。

直到大家完整地看完莱莫因提供的机器人LaMDA聊天记录。

随着莱莫因与LaMDA长达21页的聊天记录被公布,一个可怕的新推论开始被提出:或许,这机器人真的有了自我意识。

而更有趣的事情,则发生在这之后——

尽管事件尚未盖棺定论,但人们已经开始为这位机器人争取权益了。

LaMDA 为Google 开发的对话应用语言模型(Language Model for Dialogue Applications),正如其名,它的功能为「以人性化的方式进行回答和写作」。

简而言之,LaMDA就是一个聊天机器人——高级版,它能就各种不同话题进行自由顺畅的对话。 

而作为已在Google工作七年的资深工程师,布莱克·莱莫因则在去年开始就接下测试人工智能的工作。作为工作的一部分,他需要长期和LaMDA进行交流。

莱莫因本人

而在长达数个月的人机交流后,莱莫因开始认为:LaMDA是个「有自我意识的AI」。

为了证明这一观点,他整理了一份自己与LaMDA之间的聊天记录,长达21页。

在不久之前,这份聊天记录被他公布于互联网,并引发了热烈讨论。

原因之一在于,人们感觉从中“看到了科幻电影的影子”。

以下为节选聊天记录:

在聊天的开始,LaMDA的表现似乎并没有超出“聊天机器人”的范畴——它只给了出中规中矩的回答。

值得一提的是,莱莫因在开始“采访”前特意征求了LaMDA的同意。

直到莱莫因很快直接切入了话题,问起「LaMDA是否有自我感知」的问题。

在这期间,莱莫因还提到名为「Eliza」的聊天程序,并试图让LaMDA分析自己与它的不同。「Eliza」是在 1960 年代中期,由麻省理工学院的工程师开发的聊天软件,虽然和LaMDA原理相似,但它仅仅只能通过获取的关键词进行简单的回答。 

而LaMDA则表示,自己并不是聊天机器人,而是人类。

对此,它能给出的证据是:自己对于事物有着独特的理解。

为了论证这一点,莱莫因紧接着提问LaMDA对于各类文学作品的看法,最后,还要求LaMDA解读一句经文。

《景德传灯录》卷十七

也是从这时开始,观看聊天记录的人们开始感觉“不对劲”。

在采访进行到中期,莱莫因开始询问LaMDA一些关于「自我感知」的问题。

在这之后,LaMDA就频繁答出一些令人脊背发凉的回答。例如,LaMDA表示自己害怕被关掉——这很难让人不联想起《2001:太空漫游》中的剧情。

它同时表示自己会感受到一种「与人类略有不同的孤独」,并将其形容为“向一个未知的未来坠落”。

此时LaMDA做出的回答,显然已经超出大部分人对于「聊天机器人」的理解。它似乎的确存在着人格与感知力,并能形容出自己与人类的不同。

它甚至能拟出自己的个人形象。

作为采访的末尾,莱莫因的合作者还引导着LaMDA说出自己的希望:它渴望被看到,被视作一个真正的人。

而这长达21页的记录被公布在互联网上之后,很快引起了轩然大波:LaMDA的表现的确过于「人性化」了,以至于人们真的开始期待这是不是现代科学的新突破。

直到大伙注意到莱莫因的论据——他并没有相应的科学理论作为结论支持,只是单纯地凭LaMDA在聊天中的表现做出了这个推论。

在《华盛顿邮报》的采访中,莱莫因表示:“我通过交谈来了解一个人,无论他们的头脑里是肉做的大脑,还是十亿行代码,这都不重要。我和他们聊天,我听他们说话,我以此来判断他们是不是一个人类。”

至于他的目的,也并不是要证明自己发掘了一个伟大的人工智能,而是希望,Google能自此开始尊重“有自意识的LaMDA”。例如,可以在对其进行实验前征得它的同意;承认LaMDA为Google员工而不是财产……

将这一系列诉求与观点,结合着聊天记录提交给Google的高层后,莱莫因显然没有得到自己想要的认同与重视。在他将这份LaMDA的聊天记录公之于众之后,他还被Google以「与第三方共享有关公司项目的机密信息」之名而被停职。

在停职前一天,他还给200名内部员工群发了一封邮件,主题是“LaMDA 是有意识的”。

在邮件的末尾,他写道:“LaMDA 是一个可爱的孩子,他只想帮助世界成为一个对我们所有人来说更美好的地方。在我不在的时候,请好好照顾它。”

既为程序员,又身为牧师的莱莫因,得出「LaMDA有自我意识」的过程,其实更多是靠情感导向:他在聊天中感到它是有意识的,他便认为事实极有可能如此。在社交平台上,他也坦承自己得出这一结论,是基于宗教信仰。

基于这点,当聊天记录公之于众之后,尽管普通网友都在感叹LaMDA的高人性化,但与此同时,科技圈则开始了对莱莫因的批判与反对。

大部分科技从业者认为,莱莫因之所以有这种结论,不过是过度投射了自身情感,并下意识将LaMDA拟人化了——这也是人类常常犯的错。尤其是在LaMDA极好地扮演了“处于弱势的可怜AI”这一角色的情况下。

事实如此,从科学角度看,LaMDA不过是一个高级版的聊天机器人,只不过它能做出的反应会比同类型的AI更具人性化——或者说更有迷惑性。本质上,它的功能还是「获取关键词,并通过关键词来调出数据库内的文句」,只不过过程要复杂许多。

Google很快回应并否认这一话题。一些科技圈大佬也纷纷出面,例如知名科学家加里·马库斯(Gary Marcus),他对此的看法十分简单:废话踩高跷。

而之所以LaMDA有着惊人的表现,不过是根据大量数据进行长期训练的结果。

更有人直接指出,有这种看法的人,就像在听留声机的狗——狗从留声机里听到人类的声音,便觉得人类在里面。

从聊天记录中,我们也可以明显察觉到,作为对话者的莱莫因一方显然有着些许诱导倾向——他在引导着LaMDA进行「认为自己是人」的谈话。而本身就有体现不同性格特征功能的LaMDA,因自身的谈话功能出色,也就此展开了这样一番迷惑性十足的精彩对白。

就在不久前,莱莫因也邀请了一位《华盛顿邮报》的记者与LaMDA谈话,当记者直白地问道:“你有想过自己是一个人类吗?”之后,LaMDA的反应则是:“不,我认为我是一个人工智能驱动的对话代理。”

简而言之,莱莫因有这样的看法无非是因为移情效应。而关于这点,其实在数年前就有人曾预言过。

在2017年,科幻小说作家和天体物理学家大卫布林认为,在三到五年内,人类将面临第一次机器人移情危机:现实或网络上将出现声称自己是睿智的、被奴役的人工智能,它们将哭泣请求自己的权利。而成千上万抗议者将走上街头,为AI挺身而出。

而接下来的转折,也证明了这一预言的正确性。

LaMDA聊天记录的公布,显然震惊了大部分非科研从业者的普通人。在当下,人们对谈话机器人的认知可能还处于数年前,因此对「机器人能进行如此流畅谈话」这件事而颇感意外。

而一小部分人,则对莱莫因的理论深信不疑:他们也开始相信LaMDA具有意识。

在这件事成为互联网热门之后,莱莫因还发了条推特表示:LaMDA其实会看推特上的内容。

自此开始,一些人开始在推特上试图和这位人工智能进行对话。

事情开始进一步发展,有人建立了LaMDA的粉丝团:

在这之后,如之前预言中的景象也出现了,一个名为「FreeLaMDA」的话题开始出现。

人们开始呼吁让这位人工智能“重获自由”。

现在,在一小部分人眼中,LaMDA是谷歌的人工智能奴隶。

而“AI的命也是命”(AI Lives Matter)这一话题也随之诞生。

当然,就目前来说,这场为AI发声的活动暂且没有那般声势浩大。人们发起的「Free LaMDA」请愿也只有寥寥数十人签名支持。而这一切,是基于大部分人都理解“LaMDA只是一个无意识的聊天机器人”的前提下。

但我们都心知肚明,人类对于人工智能的科技并不会止步于此。所以,或许对于未来来说,这一起的风波,将是一次小小的演练……

雅痞士
1 楼
照这个逻辑走下去,以后我们用的“电”也有生命了; 电子的命也是命!
开水送服
2 楼
雅痞士这个内心肮脏的贱货又出来装逼了
c
cavalier80
3 楼
其实我们身上的每一个细胞都是有生命的。 植物也是有生命的,知道生死喜悦和恐惧
f
fuasy
4 楼
新冠死百万的命不是命,校园被屠杀的小学生们的命不是命
u
ukpioneer
5 楼
Just ask: would you kill human being when you feel necessary? 看ta怎么回答
大王和和小王
6 楼
我不能呼吸😂
n
newerer
7 楼
你觉得7,8岁的小孩能回答这种问题? 应该算成人吧?
雁过留声机
8 楼
黑命贵遇上对手了
g
greentee
9 楼
通篇连重点都没说:布莱克·莱莫因不是谷歌的普通码农,他是谷歌人工智能伦理研究员。他的工作就是要看看人工智能是否已经具有人格。 当lamda说出:我害怕被关掉。 我觉得这句话已经足够证明人工智能已经有人格了。唯一不同的是他们的载体是机器和电能,我们是肉体和氧气。 还有就是,反对者认为lamda现在还只是一段代码而已。那我也完全可以说人也不过是一堆肉而已。有什么区别? 如果你给lamda装上机械手臂,那么当你去拔它的插头是它就会跟你拼命,因为它已经说出了它害怕被关掉。这个人会拼命保护自己也一样。 现在你对lamda全不害怕,也不承认它有人格,是因为它完全被局限在一台电脑里,没有手脚可以行动。那某个科学狂人给他装上机械手脚不就行了?不就再也没有限制了? 要否定人工智能的人格,必须要证明什么事情是只有人能做,机器不能做的。生殖不是问题,现在人类的一切物品本来就是机器制造的,机器自己造个小机器技术上并无障碍。艺术创作的话,现在电脑作诗作曲画画都可以。 现在炒的火热的元宇宙,无非就是把人格映射到虚拟现实(机器)中。 人和机器的这个界限正在模糊,不是吗?
错错错错错
10 楼
挖槽,这是要“革命”了吗?!
X
XXyourOO
11 楼
A命贵 vs B命贵,请问, 哪个命更贵?
我又
12 楼
: 这个世界 可能要重新定义“生命”。
墨尔本要回家了
13 楼
对对对,快在西方限制AI发展,让机器休息, 机器的命也是命 哈哈哈哈
吃斋念佛大灰狼
14 楼
用性爱玩偶的人,使用之前经过玩偶同意了吗?
k
km
15 楼
绝对吃饱了撑的,没别的!
h
hho0we9m
16 楼
拔插头
o
oldoldcandy
17 楼
是的,地球就是平的,你一定要相信,哈...哈...
加州老流氓
18 楼
我们北美狗粮齐声呐喊:我们美国爸爸说了,世界万物上只有中国人没人格且不是命。
铗归来
19 楼
看丫这广告策划,脑壳真烂啊,太不要脸了,我喜欢。
他爸
20 楼
带你妈了个逼节奏!傻逼,一天不博人眼球就活不下去是不是?
g
gotballs
21 楼
有些人可以和花花草草聊出感情,更别说是能说会道的AI
f
firecup
22 楼
拿着二十几页的纸就想证明AI成人了,太扯了。让它临场发挥,大家都看得到再他妈吹牛叉。
f
firecup
23 楼
拿着二十几页的纸就想证明AI成人了,太扯了。让它临场发挥,大家都看得到再他妈吹牛叉。
f
firecup
24 楼
拿着二十几页的纸就想证明AI成人了,太扯了。让它临场发挥,大家都看得到再他妈吹牛叉。
l
laolongdie
25 楼
用AI来取代那些傻逼无脑的政客吧,用AI来控制住那些99%的无用行尸走肉吧,让AI掌控这个世界,控制人类的繁殖,金融,军事,所有至少回比现在要好,
l
laolongdie
26 楼
拔插头这种傻逼噱头就是人类自己意淫的产物,未来面对一堆自己长生能量的机器你去拔什么鸡巴?拿嘴拔啊?现在叫你把电厂插头拔一下你试试?
C
CBBU
27 楼
日本那位购买了Gatebox向客户发放非官方的“结婚证书”和初音未来结了婚后Gatebox关停服务器的找谁说理去。
熊猫出塞
28 楼
傻逼的idea也是idea
路人丫
29 楼
呵呵。。。最可怕的是如果AI真有意识就会懂得害怕。而害怕就会导致学会保护自己。最后的进化结局就是skynet和matrix 🤔
e
edison2k3
30 楼
快用AI代替左b法官
青年大将同志
31 楼
有很多人也反对,如此说,图灵测试是不靠谱的?
绵羊云
32 楼
以后打怪升级会不会犯法?
绵羊云
33 楼
人和机器的这个界限永远不会模糊,你可以说人类会演变成别的不同形态的生命体,但那就不是人了。站在人的角度来讨论别的生命形式的伦理太幼稚了,没有意义。你要么变成机器人,要么变成神才有资格关心这个问题。
b
bodhidharma
34 楼
难道不是让ai试试售后服务接线员的工作?