与ChatGPT作战,肉身是我们唯一的武器

今日头条
Toutiao
最新回复:2023年4月3日 12点9分 PT
  返回列表
38950 阅读
8 评论
人物



ChatGPT发布至今不到半年,人类理解它的速度,似乎已经跟不上它进化的速度了。

在微软最新的研究报告里,GPT-4已经通过了一些经典的心理学测验,这意味着它拥有了相当于9岁儿童的心智。但是,我们并不知道它是怎么产生出这种能力的。对人类来说,GPT-4像是一个大黑箱,充满了未知。更重要的是,它的发展是指数级的,超越了我们以往对世界线性发展的认知。

3月29日,包括埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克、Stability AI首席执行官伊马德·穆斯塔克(Emad Mostaque)在内的一千多人联合签署了一份公开信,呼吁暂停训练比GPT-4更强大的模型,至少6个月。几乎同时,英国政府也发布了一份关于人工智能的白皮书,要求不同的监管机构通过适用现有法律来监督各自领域对人工智能工具的使用。3月31日,意大利也宣布了禁用ChatGPT,因为它在收集信息时没有尊重个人隐私。

人类对人工智能已经畅想了几十年,但从来没有像此刻这样,我们感受到切身的茫然甚至是恐惧。在各个领域,ChatGPT到底可以做到什么程度?它真的会取代人类吗?有多少人会失业?我们应该如何看待它可能带来的变化,又如何在这个极端加速的变化时刻自处?《人物》邀请用AI写小说的科幻作家陈楸帆、作家双雪涛、法律学者郭兵、哲学教授余明锋、脑科学研究者刘嘉和心理咨询师崔庆龙来谈一谈他们使用ChatGPT的感受以及引发的思考。

——几乎每个人都感受到了冲击。尽管各自态度不同,有人觉得失业在即,有人觉得被取代还为时尚早,有人拥抱科技,也有人表示担忧,但每个人都说了类似的话:ChatGPT的进化是一个契机,在被取代的危机下,反推我们去思考一些问题的本质——创作的本质、教育的本质、法律的本质,甚至人的本质。

以下是他们的讲述:

文|吕蓓卡 林秋铭

编辑|槐杨

图|(除特殊标注外)视觉中国

「人也好,机器也好,创作的过程其实没有太大区别」

科幻作家 陈楸帆

曾任职于百度、谷歌

2017年开始尝试用AI写小说

最近我天天在用ChatGPT写小说。其实2020年我就在用相当于GPT-2.0的模型来写科幻小说了,那时候,简单的人称它都搞不清楚,人物关系里面谁是谁、彼此的联系是什么,写着写着它就搞混或者颠倒了。

但到了GPT-3.5,在一个序列里,你给它一个环境或背景去做续写,你能看到它前后的连贯性保持得非常好,甚至还能给出一些你意想不到的转折,有一些甚至令我觉得带有更深层的文学意味。

它的灵活,可能来源于已经学习了非常多网上的文学套路,让它能跳脱出我作为一个人类作家的惯性。我写小说很多时候还是会受限于以前的创作路径,但它可以从整个人类的数据库里去抽象出非常多的原型,无限多地在原型里做排列组合,去生成无限多的分支结构。

最近我正在写一个儿童科幻,写一个非常懂 AI的城市女孩去一个原始村落,遇到另一个女孩的故事。我会用 ChatGPT帮我描绘一下未来的城市是什么样的,这个女孩一天的生活场景是怎么样的,它写出来的非常像《小灵通漫游未来》,我把文本再回输进去,要求它再增加一点文学性,再增加一点哲学的思考、一些生动的比喻,它就会再修改。我甚至曾经要求它用科马克·麦卡锡的笔触来写一个海啸的场景,出来的文字不一定全都能用,但能给你一些感觉。

它理解的文学性、哲学性,也是基于语言模型,抽象出很多文学作品里所谓的文学性,有时候会过度修饰,比如你让它加点比喻,它恨不得每句话都来个比喻,你就会知道机器把握不好这个平衡,而文学性的微妙之处恰恰在于取舍,在于留白,在说与不说之间,这部分它还没有那么智能。

但它会生成一些我原来在大纲里没有涉及的情节,比如两个女孩第一次见面,会有一些防备心理。那我就可以顺着这个防备心理的线索再去发展。和ChatGPT一起写作就像一个开放的写作实验,你不需要做任何的预设,有了意象,展开变成场景,再加上人物,借由ChatGPT,人物和场景之间发生的故事就不在你预先的设计范围内了。你就跟着它走,看怎么把每个声称的结果结合在一块,最后用你人类的审美、文学性的判断标准再做统一的修改。未来的作品,读者或许就读不出来到底哪部分是人、哪部分是AI写的,因为里面会经过非常多不同层次的修改和排列组合。

用AI写作,我是开始得比较早的,2017年,我跟创新工场的王咏刚,也就是我原来谷歌的同事,一起搭建模型开始做写作实验。那年谷歌推出了transformer的模型,也是大语言模型真正变革的开始。当时用的时候只是觉得有点意思,不知道它会用多长时间才能够变成我们日常去使用的写作辅助的工具。但去年年底发布了GPT-3.5,你会发现,五年的时间,就已经进化成这样。技术的进步确实远远超过我们所能预测的范围,这一点是最可怕的。它的进步现在已经是加速度了,不是我们习惯的线性增长,而是一个指数性的增长,而且这个增长才刚刚开始。

用AI写作之后,我有一个非常明显的感觉,就是人也好,机器也好,创作的过程其实没有太大区别。

我们写作、思考、交流,表达全都是用语言,那创作的本质到底是什么?可能就是把你读过的东西、你的体验、你的思考,重新排列组合成一种新的文字组合形式去表达出来,而机器是用一种数学模型来做它的排列组合。人可能要更加复杂,用大脑神经结合情感体验等等。但我觉得从根本上来讲,这两者可能过程是非常相似的。

就像人的写作很多时候也是从模仿开始,只不过人的大脑的「算法」是一个更内隐的过程,更像一个黑盒子,会被赋予一种神秘感,一种类似于灵魂的光晕,就是本雅明所说的aura(灵韵)。

而当我们真的试图去理解GPT到底怎么建出来的,你会发现非常多工程学上的具体的实施细节,我们都不知道它的原理是什么,只是通过非常多的试错来达成。所以AI跟人的大脑一样,我们都不知道它的底层逻辑是什么,都是黑匣子,只不过一个是碳基,一个是硅基。

当你看到一个机器,它用这么简单粗暴的训练方式,也能写出让你觉得「有一些东西」的文字的时候,你就会开始回过头想,那么多作家,包括画家、诗人,这些创作过程里到底有什么人类的独特性?我现在的答案是,可能并没有那么的独特,也没有那么的不可替代。

随着AI不断以这种指数级的速度自我进化、自我迭代,接下来非常多人类本体的定义、人本主义的基础会被动摇,这是一个更深刻的东西,可能现在还没有被讨论得特别充分。我观察到人文学者,包括一些传统作家,他们面对新的事物还是比较保守,甚至很多会有一种拒斥的心理。他会觉得这东西无非就是排列、组合、拼贴,从那么多东西里面这边抄一点,那边抄一点,但我觉得这个东西可能没有他们想象的那么简单。原来大家会质疑AI无法创造新的东西,但现在意识到,人类创造的东西,很多也是通过原有的知识经验的打碎重组,放到新的场景里去运用。

发展人工智能,也是在认识人类自己,最后你也会去思考智能的本质是什么,意识的本质是什么,存在的本质是什么,它是否也是由语言、由符号来定义的,它是否也是从一个混沌海量的数据里面,去涌现出来的一种秩序感?

基于此,我觉得最后还是人类对自身的理解,会决定我们的结局。

从现实的一面出发,我觉得未来可能会有大批中初级的白领职业被取代,比如编程,文案,反而是体力劳动者,需要用身体或者比较复杂的肢体去劳作的一些工作,按摩之类的,不会那么快被取代,因为AI做不到。

这个很有意思,现实跟我们原来小说中的预想是相反的。比如《小灵通漫游未来》,那个时候大家喜欢写家里有什么机器保姆,现在发现完全不是这回事。

在普遍要被取代的担忧里,我觉得普通人还是做点自己喜欢做的事。尤其是小孩,你现在教他很多东西,过几年可能完全没用了,这个职业都不存在了,还不如让他自己去寻找他的兴趣。

最后,要好好锻炼身体,肉身才是人类的优势,大脑不是。



比起大脑,肉身才是人类的最大优势。图源剧集《西部世界》

「我能改变什么?我只能去写自己的东西。」

作家 双雪涛

从写作上来说,人肯定还是有AI取代不了的地方,生物学基础不一样。AI还是基于学习,基于已知的东西,去形成一个从未出现过的文本,但是并不是真的从未出现。

人在生活,在吃喝拉撒,也在恋爱,也在生气,这种因为拥有物理性的身体而获得的东西是AI不能代替的,AI只能模仿生成文本之后的这些情绪。人的触感、听觉,它都没有,当然不否定它有一天可以具备,但起码现在还不可以。

而这些东西也是文学的一部分基础,吃菜、接吻,打嗝,这些目前还属于人类的领地,会产生非常个体化的感受。它暂时还没有这些感觉。所以我觉得它生产出来的东西还是基于之前描写过的感觉,二手资料得来的。

当然,有时候人的写作也是这样,也需要很多的阅读,学习很多材料,然后去生成作品。这种运作方式有相似的地方。而且其实有些作家写作已经很像AI了,他不使用AI,但也是通过大量的阅读、学习,书摘式地写作。

未来比较紧迫的一个问题可能是如果AI已经具备了一些思考能力,甚至具备了很强的学习能力和文字上的模仿能力,它自己就可以在一些提示下产生作品,还是能让别人读下去的作品,如果再有倾向、有风格,那就很厉害了。

一旦它具备这些能力,它的作品就会变成商品,在这种情况下,他们和人类作家其实是一种竞争关系,作家为什么写作对它来说不重要,它能生产那么多东西,一些读者甚至很愿意专门读AI的东西,人类作家就会受到冲击。

比如网络小说,很多人读网络小说的心态其实跟读AI差不太多。谁写的不重要,情节本身很重要,吸引着他往下读就行了。不排除有一天AI模仿出来的也许真的会比一些人写得好,如果说它掌握了海明威钱德勒勒卡雷的风格,去写网络小说,那会是一个什么样的东西呢?挺令人遐想。你也可以输入一些要求,比如写得更色情更暴力有更多翻转,它都可以做得到,人有时候想做都不一定能做到,可AI是心手合一的。AI体力也是无限的,人会累,会绞尽脑汁想不出来,抽很多烟,会重复,但AI能翻着花给你编,很稳定地输出。

我们现在的讨论基于它还是个工具,帮助我们的工具,我觉得真正的危机是它拥有读者的时候,人类为它的作品买单的时候。那时候我也改变不了什么,我能改变什么?我只能去写自己的东西,接受一个手工业者的命运。

有一天AI的创造力可能让人惊讶,有一些让你非常意想不到的想法,像它之前下围棋,很多棋手并不知道它为什么要下这一步,但发现它下得是真的很精妙,如果写作上也可以真的到这种程度,才是作家真正恐慌的时候,同时作为读者也是一种幸福,有了更高级深邃的读物。

乐观一点说,可能到那个时候读者会是分化的,一部分人喜欢读AI写的东西,一部分人喜欢读人和AI合作的东西,还有一些人喜欢传统手工式写作。大家一起分工明确地生产作品,拥有各自的读者,也有可能。

但悲观一点,我会担心如果AI能够生成思想,它能提供的就不光是娱乐性的阅读了,它可能会操纵人的情感,当它学习了海量的东西之后,它写出来的东西里面暗藏了什么密码,我们没有能力识别,也许会在不知不觉间,让人在精神上产生某种扭转,对世界和自己的认知产生改变,我觉得都是有可能的。

还有一个悲观的地方在于,人和机器的交互变多,人和人的交流就会变少,现在人已经开始自闭了,人类的触感也在发生变化,以后AI可能就是你的一种触感了。

目前AI是挺好一个主题,是挺值得进行创作的客体。尽管它已经非常危险,令人恐惧,但也确实使我们对自身产生了更多的思考,何以为人,何以为写作。单单书写这个主题就挺让人兴奋。



人工智能既让人恐惧,也让人产生更多思考。图源电影《攻壳机动队》

「那一刻,我和ChatGPT产生了近似好朋友的感觉」

心理咨询师 崔庆龙

对ChatGPT,我抱着极大的兴趣,我想知道我应该如何使用这个工具,它在哪些地方可以帮助我,哪些地方不能。为了测试这个想法,我假扮成一个有点抑郁情绪的人,说,我现在处在一个抑郁的状态,觉得生活无意义,对一切都不再感兴趣,该怎么办?

它马上建议我去医院,找权威的专业咨询师,还列了一大堆建议,包括多吃水果,多锻炼。这显然是一个你在任何地方都能听到的话,搜索到的答案,它不具备任何和人相关的特异性。

于是我说,不要给我建议,我需要一个能够倾听我情绪和感受的交谈对象。它开始道歉,说不好意思,我会认真地听你讲,试着去理解你。接下来,在我说了一些感受以后,它开始对我共情,虽然有那么一点生硬,但它还是接收到了我的反馈,并修正了自己的对话。

我接着讲不好的情绪,结尾是一个很强烈的疑惑语气——我不知道该怎么做。它马上又给我建议,还是上面那一套方法。我继续说,不要给我建议,我现在需要的不是这样的东西,这对我毫无帮助。于是,它又回归到共情的状态。

我发现它始终停留在这两种状态,它始终根据它的对话规则来试着给你它认为最有价值的信息。基于这个规则,我就要不停地根据它的状态去调试我自己,简单来说,我需要去配合它的对话机制,我才能得以和它进行某种对话。

在那个节点上,我的对话兴趣就没了。对于一个有倾诉欲望的,尤其是一个处在抑郁状态的人来说,他想要的是「怎么表达都可以」的自由,他不希望感受到任何的对话困难和额外消耗,但和ChatGPT对话反而成了一件更「小心翼翼」的事。

也就是说,如果想把ChatGPT作为一个深度倾吐的对象,它大概率会让你失望。从它生成的规则上来讲,ChatGPT相当于被投喂了大量的人类语言文本,所有的对话或者反馈,都是基于人在这样的情境下更有可能说出什么内容的一种概率计算。它少了那种把你视作一个独特的人,在一个独特的对话语境下,给你一种独特的反馈的体验。人与人之间本质上是意图和意图的交流,语言交流不过是这一内在过程的外化。这也是和人机交互最本质的不同,因为机器没有意图,也就是所谓的主观动机。

我接着说,你给我推荐一些和心理自助相关的书籍吧,以及最新有什么相关的研究。它的推荐质量很高。我意识到,在这个层面向ChatGPT求助,它会是一个非常强大的助手,它最大的价值就是能一次性给你相对准确的、符合你需要的东西。

有些人说,他们和ChatGPT聊天有松弛的感受,因为它已经能够用一种并不生硬的方式去回应你的任何询问。我非常理解这种感受,因为它能够做到绝对的中立,以及向这样一个非人类的交流对象说话时才有的安全,你知道它不会评判你,而你不知道那个被视为中立的咨询师,这个工作角色背后的那个人,会不会评判你,尤其是涉及到对自己内心隐秘而黑暗的东西的分享时。哪怕是最信任的咨访关系里,来访者偶尔都会有难以启齿的话语,因为羞耻感是人与人之间常有的一种情绪体验。

ChatGPT有着绝对的耐心,我知道它是一个AI,也知道它的互动逻辑,所以我极尽所能地给它提要求,明确规则和目标。我和一般人是不可能这样说话的,某种意义上,我知道这是在训练它,我提的要求越具体、苛刻,它的执行效果就越好。

有一次,我让它帮我搜一篇文献,挺难找的,之前我在网上问过很多同行,都没搜到。我不停使唤它,最后它还真帮我找到了。就像一个人回应了你那么多期待和要求,锲而不舍地去帮你做这件事,那一刻,我产生了一种近似于好朋友的感觉。

我情不自禁地敲下了一句「谢谢你」。虽然我意识到这个谢谢没有必要,但还是把「谢谢你」发出去了。它回应我的,还是那一套客气的话,这也在我的预想之中,但我还是在那一刻体验到了一种被支持的感觉。这就是人类情感的奇妙之处,从这里你就不难理解人类为什么会对一些虚拟角色产生情感,其实理智上每个人都知道它只是一段程序代码,是预设的脚本,但重要的是,它能够让你唤起怎样的体验。

现在人机交互越来越频繁,出现了基于ChatGPT技术的聊天机器人,包括ChatGPT贴吧里面有吧友,教人怎么去把ChatGPT变成一个「猫娘」( 二次元衍生词,指的是猫拟人化的女性形态),虽然知道它不具备人的属性,但很多人还是享受和它交流的感受。

这就像我们看电影,你知道那是假的,但你不会一直提醒自己那是假的,这就是心智化理论所说的「佯装心理模式」,我们以「假装它就是真实」的心态去投入,因此能够真实体会。我们真正割舍不掉的,不是那个虚拟的交互对象,而是我们借助它唤起的自身的情感体验。

时下,人们对现实中的亲密关系越来越保留,越来越谨慎。但对关系的需要始终是存在的,因此更具智能化的AI或许会成为一种代偿关系形式,实际上已经有很多类似的应用了。而到达GPT4这个级别后,它会更具真实性,尤其是当人类为它赋予一个具体的形象时,它可能真的会让一些人沉沦,忘我,基于一种心理学所说的移情过程,因为这些虚拟角色在某些时候具备更大的情感投射空间。

从心理健康维持的角度来讲,人机关系并不能替代人与人的关系,因为代餐会让我们营养不良,但作为零食,它却是足够独特的。只不过我们需要尊重每个人的选择,很多人情感最深处的孤独,希望被看见、被陪伴的渴望是没有被满足的,这是一个非常现实的问题,并不是每个人都有足够好的关系,无论这个世界上有多少个心理咨询师,无论多么鼓励推崇亲密关系,依然会有相当一部分人群会是孤独的,倘若这些孤独能被这样一种形式回应,它也算是一种技术之「善」吧。

ChatGPT可以「服务」于一些心理咨询领域的工作,比如辅助性的诊断和评估,比如心理自助内容的规划和监督。但是,心理咨询师不会因为ChatGPT失业,它无法取代心理咨询师与来访者的交流。心理学里有个概念叫「主体间」。意思是,「我」作为一个主体,是一个有独立意识、动机、情感的个体,当我去表达什么,传递一种互动状态的时候,对方能够基于和我同样的主体的身份去回应我,尤其是心理咨询过程中那些具有转变性意义的特殊时刻。ChatGPT显然做不到这一点。当我们识别不到这部分时——在被一个独特灵魂回应的感觉,那种最深层的分享动机就没有了。同时,神态、表情变化、肢体动作传递过来的非言语信息,有时候比言语信息还要重要,它能够传达一种倾听和回应的姿态。

每次 AI技术进步的时候,都有人会提出人类被取代的担忧。这取决于我们对它有怎样的理解。我认识一个大学讲师,他的课稿就是让 ChatGPT完成的,因为现在很多大学的教材已经非常过时,ChatGPT用的反而是最新的知识理论。他说,以前他掌握了多少知识,就教多少知识,有ChatGPT以后,他突然有了在他的行业探索的动机,有了热情。就像我读心理学书籍时会问 ChatGPT,某某作者还写过什么书,发表了哪些文章,立刻我会得到一大堆可拓展的信息。一本我没看过的英文书,它可以帮我把书的每一章都概述出来,只要用10分钟,我就可以知道这本书值不值得一看。

我对ChatGPT的未来挺乐观的——当然我只能代表我自己的视角——从人类社会进步的层面来讲,我觉得它是个好东西,它已经到了高度可应用的层面,而且还在迭代。但它可能会让很多人经历一段很惶恐、很迷茫无措的时期。

ChatGPT的确会让很多人感到痛苦和不适,担心自己失业,但也许是他没有找到自己有创造性或是稀缺性的那一面。很多人抵触了解新事物,想在自己已知的世界里呆着,因为人都有对于安全感和确定感的需要。但假设一个人在这样的状态下一直生存着,我觉得他的生命体验未必是很好的。

ChatGPT就像是一个「扰动」。即使在我们舒适的状态下,或是防御结构下,我们也是需要一些扰动的。自保的过程本身,就是让人去迭代。重新适应的状态会让他耐受挫折的能力甚至是社会化能力要好很多,他更能在下一个阶段体验到更多的平静感、安全感和幸福感。



AI聊天是一种新趋势

「完全替代我们还为时尚早」

郭兵

浙江理工大学数据法治研究院院长

为什么ChatGPT在法律界引起了很大的轰动?就是因为它在解决法律问题方面已经显现出了非常不错的能力。今年三月,ChatGPT升级到GPT-4时,在美国的模拟律师考试中,已经从上个版本的排名后10%,进化到排名前10%了。

但我认为,法律人没有必要对ChatGPT过于焦虑。虽然它能给出的答案确实令人震惊,速度很快,且有很强的参考性。典型案例的检索已经可以非常聚焦,相对明确,是一个很大的进步。但是从法律的角度来说,它给出的法律解答往往经不起太多推敲,说它能完全替代我们还为时尚早。

因为在法律领域,很多问题的解决,特别是一些新的法律问题,已经公开的信息当中是找不到解决方案的。

法律人很重要的一个能力就是对法律进行解释。法律当中有很多的规定是存在着解释空间的,以个人信息为例,《个人信息保护法》第十三条,规定了个人信息处理的基本规则就是需要经过同意,但在「为履行法定职责或者法定义务所必需」、「在合理的范围内处理已经合法公开的个人信息」等特定情况下也可以不需要经过我们同意。但是,什么是「所必需」、「合理范围」,即便对于一个法律专家而言,也没法给出一个明确的答案。

那就面临一个问题,法院没有一个明确认定的时候,你问ChatGPT,它就不知道。

现实中有大量新的案件、疑难案件,我自己就是所谓的人脸识别第一案的当事人,什么叫第一案,就是之前没有引发过这类纠纷。这个案子本身不复杂,哪怕当时没有个人信息保护,它的依据也是存在的。但对于资深法官而言,如何进行利益平衡并作出最终判决也很难。没有现成的答案,你问ChatGPT,肯定也不靠谱。

事实上,ChatGPT这样的大语言模型本身也会引发法律问题,比如数据安全或个人信息保护。

我们三月份在上海有一个研讨会,关于ChatGPT在法律科技的视角下涉及的问题和挑战,会议邀请了国内两家大语言模型企业的相关专家。我当时就问他们,大模型是否处理了已经合法公开的个人信息?如果大模型需要处理公开的个人信息,那么处理是「在合理的范围内」吗?如果用户认为大模型处理个人信息侵权或者违法怎么办?他们其实也觉得是有风险的。

随着ChatGPT这样的大语言模型逐渐进入我们的日常生活,上面的这些问题也必然会引发法律争议。

要解决这个问题,存在着是保护主导还是利用主导的争议。在世界范围内,个人信息立法领域存在两种模式,一个是美国的模式,更多是强调个人信息的利用,另一种是欧盟模式,更多强调个人信息的保护。目前,已经有欧盟国家的个人数据保护部门,针对ChatGPT处理用户信息启动了立案调查。

除了个人信息保护,ChatGPT还被质疑侵犯著作权。你会发现,不论是著作权也好,还是个人信息保护也好,背后根本性的问题是一样的——到底怎么去确定「合理利用」的边界?如果相对宽松,这个技术就能够得到更好的发展,反之,这样的技术就会受到限制,甚至很难诞生。

对于ChatGPT这样的大语言模型引起的这些问题,靠大模型自身是难以解决的。我们正处在数字技术深度发展的过程中,一定会有越来越多的新问题出现,新的技术引发的法律问题或者争议纠纷也会越来越多,这些都是机器无法处理的。

当然,ChatGPT也有好的一面。在法律领域里,它有很强的辅助作用。比如一些非常传统的案件,类似交通事故的处理,就可以交给AI。其实我们现在交通事故的处理已经越来越自动化、智能化,非接触执法越来越多,这会让很多问题得到快速的解决。

牛津大学有一位非常知名的法律科技学者理查德·萨斯坎德,十年前他写了一本书,《法律人的明天会怎样》,我以前经常翻。他提到以后很多从事合同审查之类传统案件的代理律师都会被人工智能取代。

差不多五年前,我看这本书的时候,还觉得有一点天方夜谭,但是ChatGPT 出现之后,这些问题虽然它给出的答案不一定是百分百准确的,但确实具有非常大的参考作用。

有人或许会担心大量传统法律服务被人工智能取代之后,律师的市场会越来越小。因为除了打官司,律师提供法律咨询顾问的服务占比是非常大的。而以后基础的、常态化的法律问题,人工智能都可以回答,当事人就不用再花钱找律师了。法官得到的辅助也会越来越强,我们现在处理很多案件的时候,为了更好地说服法官,就需要拿出足够的案例来。那人工智能在检索上就能够做得很好。

但换一个角度来看,法律人还有大量工作是无法被人工智能取代的,而且人工智能应用本身也意味着新的法律服务市场的产生。律师可以转向这些新的法律市场,并且从许多重复的工作中解放出来。相应的,对法律人的专业要求会进一步提高。

当人工智能越来越强,知识记忆越来越不重要,你能记住的东西在大模型面前根本就不值一提。这需要我们意识到,学法律很重要的能力就是发现问题,要发现制度上存在着什么样的漏洞,我们的理论有什么不足,要学会反思,要能够更深入去追问法律的本质的问题。

恰恰有人工智能这样一个辅助之后,我们能更好地探讨这些问题的答案。



图源纪录片《监视资本主义:智能陷阱》

「狼真的来了」

余明锋

同济大学人文学院副教授、哲学系副主任

从AlphaGo开始,我就关注这方面的信息,那个时候AI的发展已经让我们震惊,但当时受应用场景的局限,总体上还是一个设想大于现实的东西。直到ChatGPT,意味着AI将大范围地进入我们的日常生活。

尤其在教育领域。它最早引起关注就是因为教育领域的强烈反应。2023年初有报道说,北密歇根大学有个学生通过ChatGPT写的论文拿了第一名,这个冲击非常大。教育领域喊出了一声「狼真的来了」。

为什么首先是教育?这可能因为ChatGPT在社会生活各个方面的应用还需要进一步的嫁接,但教育上是最直接的,可以直接应用于答题、学术论文的撰写。

OpenAI的CEO阿尔特曼在最新的采访中,也说,教育必然大受冲击。他的表达很有意思,用的英文叫「revolutionize the education」,会有革命性的影响。我也认同。它冲击的不光是我们的授课模式、考核方式,甚至是我们整个的现代教育制度。

现代教育制度是基于启蒙运动以来的知识理念和工业社会的组织架构而建立的,比如划分专业,就和整个工业社会的架构分不开。当技术的发展使得这些理念和架构都面临失效的时候,基于此而建立的现代教育制度,恐怕也到了一个亟需变革的时刻。教育也承担了公平基础上的择优功能,主要标准是对知识掌握程度的考察,但当「知识掌握程度」没有那么重要了,未来应该如何公平地择优?相应的,学校要培养什么?都需要重新去思考。它敦促我们重新去思考教育的本质。

很多人已经意识到,我们的教育,本来就有很大的问题。过度的专业化、知识化,对于死的知识的过度强调,这造成青春的巨大浪费,压抑了青年的创造力。比如博士生每年要发两篇C刊论文,这是什么概念?他要把所有时间都花在这个上面,都不一定发表得出来。因为全中国的C刊版面也不够博士生发表。学者也主要在生产论文,对学者的评价主要是看论文数量。当论文和大家的名利、职称各种东西挂钩,完全背离了科学研究的精神和教育的精神,这非常畸形,这种制度设计大大束缚了我们的学者,特别是青年学者。

尤其哲学教育专业化之后,使得哲学丧失了它原有的意义。哲学非常需要跨学科能力,要有对整个时代、对人类命运的关切。所以,如果我的学生不是简单抄袭ChatGPT,而是化用到自己的研究中来,让自己解脱于单纯的材料工作,让自己能够进行更为有效的哲思,那我肯定是赞成的。

扩展来看,如果我们的教育能够积极主动去应对内容生产型的人工智能,那大学的一些考核方式、组织方式,就会有很多调整。

尽管这不是一个短期的事,但我觉得它有一种解放的潜能。对于我从事的哲学教育来说,让学生更多去从简单的知识掌握中摆脱出来,更多去学会提问、反思、追问,是很重要的。这也是我们目前的教育里比较忽视的。

所以,这样一种技术的冲击,未必不是一个改革的契机。

这个契机也让我们重新审视18世纪以来启蒙的知识理念,这种理念认为知识就是带来进步的,知识直接就带来心智的提升、人格的培养,但这些恐怕在今天都是问题。

技术成了我们时代的哲学问题的提出者,我觉得这是一件很有趣的事。有了这样的技术,整个社会就会去问什么是教育,什么是学习,什么是工作。这些问题都是哲学问题,但过去很长一段时间我们都不再追问了。我们只是在工作,而来不及去反思工作。

这个意义上,我们是在通过AI,重新提出这些问题。

但我必须要说,我有另一方面的担忧,就像人类不再需要记电话号码之后,我们就记不住电话号码了。当我们可以很快地调取知识,就特别需要警惕,AI多大程度上会使我们开始远离文本本身。学生很可能不再阅读萨特,而是直接问ChatGPT萨特的存在主义是什么,然后得出几条看起来很正确的答案。这会造成对思想的隔膜。

对于经典文本的深入理解,是需要把它装在心里的,这不光是一个储存知识的过程,也是在学习如何解读文本的过程,然后把那些伟大作品融入我们的人格。这当中既有手艺的锻炼,也有玩味的体验和思想力量的内化。

但技术的发展,会让学生对于文本、对于思想家的思想路径,都不用再去追溯,这会是一个巨大的灾难。就哲学教育来说,这会制造一批能够对答如流,但毫无思想的人。

所以,这件事有两面性,让人类有可能解脱于过量知识的负担,也可能对真正意义上的教育造成障碍。就像有了计算器之后,人类口算的能力是降低的,有了ChatGPT之后,未来人类的知识掌握能力,也必然会降低。但知识掌握的熟练程度也许是通向一种反思能力的必要阶梯,它不应该是目的,但会有阶梯的意义。而技术到底是在简化这个梯子,还是全然撤走这个必要的梯子,是个大疑问。至少部分地要看我们如何应对,要看教育制度如何调整。

我们讨论技术,要和制度、和观念放在一起来谈。在通过人工智能解放了过量知识的束缚之后,提问能力、人格的塑造、人的培养、对生命问题的敏感和对社会的关切,这些是落空了,还是实现了,这是人类未来的大问题,更是摆在教育面前的一个巨大的问号。里面有很多值得思考的问题,我还不能给出一个明确的答案,但我以为这很关键。

其实哲学上,对于技术的讨论是20世纪下半叶一个相当重要的话题。有一类技术,看似是给我们提供了一点小小的便利,但其实它携带了一整套生活方式,技术专家自己也根本无法预料它带来的会是什么。

我们要明白,推动技术变革背后的逻辑,其实是资本的逻辑。所以我们不能够把技术问题仅仅交给技术专家,我们要意识到现代技术的发展带来的巨大影响,是需要人文学者、社会政治各个领域的专家去高度关注的。

当代生活的一个巨大问题,恐怕就在于科技资本的强大动力机制,技术成了和资本分不开的自我增殖系统,它才是主体,它在不断地催生变革,甚至在加速催生变革。而这些变革,是要社会和个体去消化的。这就使得我们整体陷入了一种被动的境地,需要不断地去接技术发出来的球,把它消化掉,无论是正面还是负面。我们疲于应对。

可以说19世纪中叶以来的技术时代,把人类植入了一个高度不稳定的生态当中。技术在加速推进,不停带来整个生活方式的演变,让每一代人都觉得自己处在过渡中。无论如何,AI对我们的知识观念、教育观念、就业观念、社会公平的观念等,都会带来根本性的影响。



瑞士高中老师参加ChatGPT研讨会

「从无到有地创造知识,仍然是人类目前的骄傲」

刘嘉

清华大学脑与智能实验室首席研究员

因为我从事认知神经科学和人工智能交叉研究这一块,所以ChatGPT的前身——GPT-3在2020年5月刚发布的时候,我已经接触它了。那时候,我对它更多是一种怀疑、嘲笑的态度,因为它会犯很多低级的错误。在我看来,这与我之前见识过的很多人工智能程序类似,比如战胜了人类围棋第一高手李世石的AlphaGo,我们会感叹它的厉害,但是生活该怎么过还是怎么过。

这个想法一直持续到2022年11月30号,基于GPT-3.5的ChatGPT发布。最初,我以为它是一个破绽百出的聊天软件,但是用过它之后,我只有一个想法,从今天开始,世界不再和以前一样了。

这是因为我从ChatGPT上看到了通用人工智能(Artificial General Intelligence, AGI)的火花。AlphaGo不是通用人工智能,因为它除了下围棋,完成不了诸如识别面孔或驾驶汽车这样的任务,所以AlphaGo只是任务特异的人工智能(Task-Specific AI, TSAI)。而通用人工智能最厉害的地方,就是它可以像人一样干很多事情,这就意味着它具有类似于人的、适用于各种任务的思维能力。从学术上讲,ChatGPT是一个大语言模型(large language model),它的本质是一个思维模型,这是因为语言是思维的载体。掌握了语言,就自然而然会涌现出思维。

ChatGPT为什么这么强大?它的底层逻辑其实是模仿人脑。人脑是由生物神经元组成的,它的机制简单,就是通过树突接收信息,胞体进行简单的加和运算,最后通过轴突把结果输出到下一个神经元。基本上所有的基于人工神经网络的AI都是由此来构建,ChatGPT也不例外。但是,让ChatGPT和其他AI程序不同的是,它一直在追求「大」,而在我看来,「大」是区别我们人类大脑与动物大脑最本质特质。在过去300万年里,人类大脑的体积增加了3倍,创造了进化史上最大的奇迹,从此人类从在非洲丛林的艰难生存,变成了今天地球的主宰。从GPT到GPT-2到GPT-3到现在的GPT-4,它的规模也在越来越大。而当规模越来越大时,事实证明,它就能够涌现出人类的通用智能行为,产生思维。

这也是为什么以马斯克为首的AI大佬们要求暂停训练更大规模的GPT,给人类6个月的时间,然后人类讨论一下,我们怎么把GPT控制在人类的手中,而不是让它失控。他们已经开始担心,我们可能真的训练出不被人类控制的通用人工智能,而它可能会对人类的生存造成巨大的影响,甚至会毁灭人类。

这是因为,有一种知识,是人类无法掌握而机器却能够拥有的,即「暗知识」,它不可感受,不可表达,存在于海量数据中,数量远超过我们能够感知或者能够表达的「明知识」和「隐知识」。就像在围棋中,相对于庞大的围棋空间,人类两千多年探索,只是这个空间里微不足道的一个小点,大部分空间还是一片黑暗。AlphaGo之所以能战胜人类,就是因为它探索了更大的空间,因此找到了更多的下法。

ChatGPT从设计之初,就是来探索人类从诞生至今所积累的所有知识。例如GPT-3学习了整个互联网上2/3的知识。它不仅是最博学的个体,更重要的是,它把不同知识融会贯通,掌握了知识与知识之间的连接,于是就拥有了大量的暗知识,因此它的智慧等级可能要比人类高很多。我们可以想象一下——能够将科学与艺术、工程与人文所有学科都打通的这么一个智者。

最近,微软研究院刊出了一篇长达154页的论文,给ChatGPT做了一个全面的体检。他们发现,ChatGPT在抽象、理解、视觉、编程、数学、医学、法律等多个领域都已经达到甚至超越人类的水平。更让人惊讶的是,它也涌现出了初步的共情能力。也就是说,它能够在一定程度上「理解」人类的喜怒哀乐以及行为背后的动机,而这是我们人类能够组建家庭、形成社会的核心能力之一。

具有共情能力的ChatGPT就可以在情感层面上与人类进行交流;更重要的是,不同的AI程序之间,也许可以像人类一样进行交流和沟通,甚至能够构建一个全新的没有人类参与的计算机社会。

那么,未来将会是怎样?一方面,从进化上来讲,现在的人类的大脑已经发展到了顶峰。由于生物学上的约束,即使再给人类100万年,人类的大脑不太可能再有显著的变化。但是对于人工智能来说,一块CPU不够可以再加一块CPU,一块硬盘不够可以再加一块硬盘,所以它有无限的算力和无限的存储能力。理论上讲,机器的智能终将永远超过人类的智能。而这一旦发生,「奇点」就会来临,文明的发展就不再连续,人类就不再是文明的主要载体。

从另一方面来讲,人类在过去的300万年里,就只干两件事情:第一件,我们在前人的基础之上,就像牛顿说的,「站在巨人的肩膀之上」,组合式创新,演化出新的东西。在这方面,ChatGPT或许会做得比人更好。但是人脑还擅长另一件事情,就是我们能够从「没有」中去创造出新的东西出来。也就是说,人类可以跳出过去知识的约束和边界,产生原本不存在的新的知识。而这一点,还是ChatGPT目前不拥有的。例如,如果ChatGPT只看到了传统绘画,它大概率不会创造出以莫奈为代表的印象主义画作出来。无中生有、从0到1,这仍然是人类目前的骄傲。

我想,以ChatGPT为代表的通用人工智能的出现,目的并不是要取代人类甚至摧毁人类。在历史上,蒸汽机的发明,在开始的时候让人手足无措,但是慢慢我们意识到,它可以让人类从简单、重复、低效的工作中解放出来,在过去300年里人类创造的财富与知识,要远远超过过去3000年人类在农耕社会所创造的一切。同样,到了chatGPT时代,我们可以不再需要像以前那样高强度地学习知识,因为我们可以随时随地从ChatGPT获得。而GPT并不是让人类变得无所事事,而是给我们留下了大量的时间和空间,让人类从一个有知识的工人,转变成一个能创新的创造者。

所以,也许在未来的30年里,我们能够创造出超过过去300年我们所创造的财富和知识。

此外,AI也可以帮助我们理解大脑的奥秘。我们可以用人工神经网络方法对大脑进行建模,理解它的机制,破译导致我们抑郁、焦虑、痴呆的根本原因,治疗与大脑相关的疾病,让我们人类的生活质量更高。

我前几天和一个朋友聊天,谈到人工智能的未来,他非常悲观,认为人工智能会毁灭人类。我没有试图说服他,我说,无论它是帮助我们,还是毁掉我们,有一点我是确定的,那就是我们现在生活在这样一个全新的充满无限可能的时代里,我们是何其的幸运。



图源电影《攻壳机动队》

d
dream_pillow
1 楼
以前以为人类会用核弹消灭自己, 后来以为会用转基因消灭自己, 现在才明白,前两个太慢太温柔.......
D
Deepspace_01
2 楼
生成式AI在学习,归纳,总结领域会比人强。但在开发,创新,研究,探索领域永远不会比人强。人类给它一个学习范围,它就只能在那个范围内学习。还是那句话,中共能让AI不反共,人类就能让AI不害人。安啦。
s
shakuras2000
3 楼
这个没办法。就好像两辆车对撞,中美谁也没法踩刹车,谁踩了谁死
宾州一粒沙
4 楼
ChatGPT是和计算器,工资软件,税务软件类似的工具,你可以用它来做许多事,而且做得更快更好。最终做得怎样,是你的要求和界定决定的。与此同时,许多以前需要的技术步骤不再需要了,就像有了计算器后,心算就不需要了。它是友不是敌,用不着胆战心惊。
m
maina
5 楼
@Deepspace_01太天真,能够使用工具的猿猴就不再把自己当猿猴了,进而控制曾经的同类及其它所有的动物,同样的能够控制AI的人类终有一天不再把自己当人类了,进而会控制整个人类。
p
paladindancer
6 楼
如果AI是按照人类的行为模式训练, 那人类必死无疑.
泥川
7 楼
只和AI比知识,人完败。AI的局限在于,它是用主流思路训出来的,天性寻求为世俗认可。 而创新始于异端邪说,始于离经叛道,所以AI难以做到。而且创新还需要观察,实验,计算,制造等要素,这也超出AI的能力。
泥川
8 楼
有一个说法,人和动物的区别在于人会使用工具。如果AI能使用工具呢?说到要和AI作战,就要把AI和工具隔离开,再把人摆在AI和工具之间,就像防止烧光一切的大火,在森林里打的防火道。