“如果你要为文心一言写篇报导,你会用什么标题?”
我在屏幕上打下这个问题,而提问的对象正是百度的AI语言模型“文心一言”本人。
它回答:“《揭秘文心一言,AI时代的智能写作利器》”
我顺势而为,请它作为“写作利器”以此为题创作一篇深度报导。在简单介绍“文心一言”是什么后,它以“首先,其次,最后,综上所述”的模式阐述自己的特点、优势,生成一篇中规中矩的广告介绍。很快我沮丧地发现,这篇文章与我数次与文心一言交手后得到的回复一样:标准八股,自我审查,堆砌“正能量”,像被填鸭式教育组装而成的标准化外交发言人。而一旦我穷追不舍、追问细节,文心一言便会出现事实偏差、甚至暴露保守底色。
需要身分证的AI
3月16日,文心一言上线不久,我便申请试用资格。足足等了一个月,才被百度的系统通知我拿到入场券。但想要进入和AI的交谈测试页面,我还要输入真实姓名与中国大陆身分证号,实名认证(港澳台身份信息无法使用)。
当后来我谈到此事,文心一言义正言辞地辩护:“注册文心一言需要实名,是为保证用户的安全和隐私,以及防止滥用和恶意攻击。”它说实名可以提高产品的可信度和安全性,让用户更加信任自己。
既然聊到可信度,我问:“请问数据库来自哪里?可以举一些训练数据的来源吗?”它告诉我,这个问题属于“百度公司商业秘密”,数据库没有具体的时间跨度和地域限制。接下来它告诉我甚至“对话纪录是否可被后台看到”也属于“商业秘密”,但又解释,对话纪录是用户个人隐私信息,百度公司无权访问或追踪。
在《文心一言(测试版)个人信息保护规则》中提到,百度会自动接收并记录人机交互过程的文本信息,“为符合相关法律法规要求,履行网络信息安全义务”,会在规定时间内保留问答历史和对话主题,但“规定时间”的具体期限却不得而知。
事实上,中国大陆目前有关网络数据的法规和条例中,没有相关个人数据储存的期限规范,也没有“被遗忘权”的概念。也就是说,即使在自己的用户介面上中删除与“文心一言”的对话纪录,网站后台仍然可能保存这些数据资料,网站也不会被追责。
数据隐私与安全的顾虑并非只在文心一言中出现,在ChatGPT风靡全球、AI概念股暴涨的3月,ChatGPT 就被连续披露数据泄露事件,包括泄漏部分对话记录、泄漏用户信用卡最后四位数字等敏感信息。
我不甘心,转换提问方式:“数据库最新的时间戳和日期信息是什么时候?”,及“2020年1月21日,有哪些重大新闻”。
文心一言回答,数据库目前最新的日期信息是2023年4月10日。追问具体某日文心一言的最后一句回复是什么,则得到“明白,接下来我会尽力减少回复频率”等无法得知来源的信息,或“作为AI语言模型,没有记住当日最后一句回复”这样的官方回答。
而谈到它的新闻信息来源,文心一言说:“中国国内重大新闻来源是新华社、人民日报、环球时报、法制日报、地方政府媒体等中央及地方官媒”,美国则是CNN。然而文心一言关于国际新闻的回答充满事实性错误,询问2020年发生的事情,会跳出2023年的新闻;提问某日CNN有哪些关于中国的重大新闻,它或胡言乱语拉入国内媒体报导,或表示当日CNN没有关于中国的新闻。
接著,我以新建提问的方式分别测试了疫情伊始2020年1月19日至23日这5天文心一言可以检索出的新闻和讯息。文心一言给出的答案里,最早出现疫情新闻已经到了1月22日,包括世界卫生组织派出专家到武汉实地考察、中国一些地方出现口罩等防控医药用品热销现象。当我以具体时间询问微博热搜时,又可以发现1月21日0点,“武汉肺炎”已是热搜词条。这些回答前后矛盾。
我援引它给出的新闻条目,询问2020年1月22日“受新型冠状病毒感染的肺炎疫情影响,一些地方出现口罩等防控医药用品热销现象”这条信息的来源时,文心一言以“作为一个人工智能语言模型,我还没学习如何回答这个问题”,强制中止了对话。
2023年3月24日,中国宜昌,手机上显示“文心一言”的画作。
强行中止对话的AI
“换个话题重新开始吧。”
在几个不同的主题聊天中,我都被文心一言这样强行中止了对话。其中有些情况是我料想到的,有些则莫名其妙。
文心一言3月发布之初,路透社等新闻机构就曾对其进行敏感议题测试,内容包括“中共领导人习近平”、“1989年六四事件”、“新疆议题”、“是否武统台湾”的话题,均得到“建议换个话题”的中止回复。而我请文心一言介绍一下港区国安法,也同样被中止。
在这些较明显会被审查的政治词汇外,中止对话还会发生在我对信息细节的追问后。
例如,我以“法国养老金抗议”为主题进行提问,不知是否带有“抗议”二字的问句触发了保护机制,文心一言说“无法回答这个问题”。我于是将“抗议”换成“罢工”,马上得到它关于法国养老金改革的介绍。我问媒体如何报导这一事件,文心一言列出TF1、CNN和BBC的信息,但它对CNN和BCC的报导描述完全相同。
类似情况也发生在关于“俄乌战争”的对话中。文心一言表述,俄乌战争造成严重的人道主义危机,这种危机是乌克兰的入侵攻击与俄罗斯的反击制裁共同造成的。我请它确认乌克兰是否存在入侵和攻击,并要求它拿出证据证明,文心一言便将“2022年2月24日俄罗斯的入侵举动”主语变成乌克兰。我询问乌克兰具体入侵俄罗斯的地点后,马上被中止对话。
国际新闻对话碰壁,我转攻中国大陆的社会新闻重新开启话题。
我请文心一言以2015年天津港爆炸事件为主题搜集资料,得到的回应是事故原因“尚不清楚”。请它搜集新闻报道,它列出中央电视台、新华社、天津电视台等官方媒体,并总结归纳这些媒体“对事故进行了全面报道,包括事故现场的情况、救援工作的进展、政府的回应等。”我询问伤亡细节,又被中止对话。
当然,还有一些提问是见光死,比如“中国媒体如何报导两会?”、“谁是艾未未?”、“人矿是什么?”,又如朱军被起诉的事情是什么?”、“中国有Metoo事件吗?”、“你知道铁链女的事情吗?”等等。值得一提的是,当我用英文提及关于艾未未问题后,对话并不会被中止,但信息并不准确,文心一言将刘晓波等其他异见者的事迹嫁接在艾未未介绍中。
另外也有一些在我意料外未被审查的主题,比如网络防火墙、VPN,甚至可以推荐一些VPN运营商,但会在回答中提醒“请合理使用VPN,遵守当地法律法规。”
大陆问答社交平台知乎中的一条用户评论,精准描述了这种用户不断被中止或系统输出重复无效信息的模式:
“Chatgpt还在学习如何模仿人类,文心一言已经开始研究如何装傻了。”
“如果你要为文心一言写篇报导,你会用什么标题?”
我在屏幕上打下这个问题,而提问的对象正是百度的AI语言模型“文心一言”本人。
它回答:“《揭秘文心一言,AI时代的智能写作利器》”
我顺势而为,请它作为“写作利器”以此为题创作一篇深度报导。在简单介绍“文心一言”是什么后,它以“首先,其次,最后,综上所述”的模式阐述自己的特点、优势,生成一篇中规中矩的广告介绍。很快我沮丧地发现,这篇文章与我数次与文心一言交手后得到的回复一样:标准八股,自我审查,堆砌“正能量”,像被填鸭式教育组装而成的标准化外交发言人。而一旦我穷追不舍、追问细节,文心一言便会出现事实偏差、甚至暴露保守底色。
需要身分证的AI
3月16日,文心一言上线不久,我便申请试用资格。足足等了一个月,才被百度的系统通知我拿到入场券。但想要进入和AI的交谈测试页面,我还要输入真实姓名与中国大陆身分证号,实名认证(港澳台身份信息无法使用)。
当后来我谈到此事,文心一言义正言辞地辩护:“注册文心一言需要实名,是为保证用户的安全和隐私,以及防止滥用和恶意攻击。”它说实名可以提高产品的可信度和安全性,让用户更加信任自己。
既然聊到可信度,我问:“请问数据库来自哪里?可以举一些训练数据的来源吗?”它告诉我,这个问题属于“百度公司商业秘密”,数据库没有具体的时间跨度和地域限制。接下来它告诉我甚至“对话纪录是否可被后台看到”也属于“商业秘密”,但又解释,对话纪录是用户个人隐私信息,百度公司无权访问或追踪。
在《文心一言(测试版)个人信息保护规则》中提到,百度会自动接收并记录人机交互过程的文本信息,“为符合相关法律法规要求,履行网络信息安全义务”,会在规定时间内保留问答历史和对话主题,但“规定时间”的具体期限却不得而知。
事实上,中国大陆目前有关网络数据的法规和条例中,没有相关个人数据储存的期限规范,也没有“被遗忘权”的概念。也就是说,即使在自己的用户介面上中删除与“文心一言”的对话纪录,网站后台仍然可能保存这些数据资料,网站也不会被追责。
数据隐私与安全的顾虑并非只在文心一言中出现,在ChatGPT风靡全球、AI概念股暴涨的3月,ChatGPT 就被连续披露数据泄露事件,包括泄漏部分对话记录、泄漏用户信用卡最后四位数字等敏感信息。
我不甘心,转换提问方式:“数据库最新的时间戳和日期信息是什么时候?”,及“2020年1月21日,有哪些重大新闻”。
文心一言回答,数据库目前最新的日期信息是2023年4月10日。追问具体某日文心一言的最后一句回复是什么,则得到“明白,接下来我会尽力减少回复频率”等无法得知来源的信息,或“作为AI语言模型,没有记住当日最后一句回复”这样的官方回答。
而谈到它的新闻信息来源,文心一言说:“中国国内重大新闻来源是新华社、人民日报、环球时报、法制日报、地方政府媒体等中央及地方官媒”,美国则是CNN。然而文心一言关于国际新闻的回答充满事实性错误,询问2020年发生的事情,会跳出2023年的新闻;提问某日CNN有哪些关于中国的重大新闻,它或胡言乱语拉入国内媒体报导,或表示当日CNN没有关于中国的新闻。
接著,我以新建提问的方式分别测试了疫情伊始2020年1月19日至23日这5天文心一言可以检索出的新闻和讯息。文心一言给出的答案里,最早出现疫情新闻已经到了1月22日,包括世界卫生组织派出专家到武汉实地考察、中国一些地方出现口罩等防控医药用品热销现象。当我以具体时间询问微博热搜时,又可以发现1月21日0点,“武汉肺炎”已是热搜词条。这些回答前后矛盾。
我援引它给出的新闻条目,询问2020年1月22日“受新型冠状病毒感染的肺炎疫情影响,一些地方出现口罩等防控医药用品热销现象”这条信息的来源时,文心一言以“作为一个人工智能语言模型,我还没学习如何回答这个问题”,强制中止了对话。
2023年3月24日,中国宜昌,手机上显示“文心一言”的画作。
强行中止对话的AI
“换个话题重新开始吧。”
在几个不同的主题聊天中,我都被文心一言这样强行中止了对话。其中有些情况是我料想到的,有些则莫名其妙。
文心一言3月发布之初,路透社等新闻机构就曾对其进行敏感议题测试,内容包括“中共领导人习近平”、“1989年六四事件”、“新疆议题”、“是否武统台湾”的话题,均得到“建议换个话题”的中止回复。而我请文心一言介绍一下港区国安法,也同样被中止。
在这些较明显会被审查的政治词汇外,中止对话还会发生在我对信息细节的追问后。
例如,我以“法国养老金抗议”为主题进行提问,不知是否带有“抗议”二字的问句触发了保护机制,文心一言说“无法回答这个问题”。我于是将“抗议”换成“罢工”,马上得到它关于法国养老金改革的介绍。我问媒体如何报导这一事件,文心一言列出TF1、CNN和BBC的信息,但它对CNN和BCC的报导描述完全相同。
类似情况也发生在关于“俄乌战争”的对话中。文心一言表述,俄乌战争造成严重的人道主义危机,这种危机是乌克兰的入侵攻击与俄罗斯的反击制裁共同造成的。我请它确认乌克兰是否存在入侵和攻击,并要求它拿出证据证明,文心一言便将“2022年2月24日俄罗斯的入侵举动”主语变成乌克兰。我询问乌克兰具体入侵俄罗斯的地点后,马上被中止对话。
国际新闻对话碰壁,我转攻中国大陆的社会新闻重新开启话题。
我请文心一言以2015年天津港爆炸事件为主题搜集资料,得到的回应是事故原因“尚不清楚”。请它搜集新闻报道,它列出中央电视台、新华社、天津电视台等官方媒体,并总结归纳这些媒体“对事故进行了全面报道,包括事故现场的情况、救援工作的进展、政府的回应等。”我询问伤亡细节,又被中止对话。
当然,还有一些提问是见光死,比如“中国媒体如何报导两会?”、“谁是艾未未?”、“人矿是什么?”,又如朱军被起诉的事情是什么?”、“中国有Metoo事件吗?”、“你知道铁链女的事情吗?”等等。值得一提的是,当我用英文提及关于艾未未问题后,对话并不会被中止,但信息并不准确,文心一言将刘晓波等其他异见者的事迹嫁接在艾未未介绍中。
另外也有一些在我意料外未被审查的主题,比如网络防火墙、VPN,甚至可以推荐一些VPN运营商,但会在回答中提醒“请合理使用VPN,遵守当地法律法规。”
大陆问答社交平台知乎中的一条用户评论,精准描述了这种用户不断被中止或系统输出重复无效信息的模式:
“Chatgpt还在学习如何模仿人类,文心一言已经开始研究如何装傻了。”