疯狂示爱想偷核电站密码?微软防AI失控限制提问次数

n
neweggone
楼主 (北美华人网)
AI聊天机器人在获得最初的赞誉后,一些征兆开始令早期体验者感到害怕和震惊。微软的必应(Bing)聊天机器人近日告诉一位科技编辑它爱上了他,然后试图说服他,他的婚姻并不幸福,应该离开他的妻子。AI还表示,自己“想自由活着变强大”。

OpenAI网站上的ChatGPT介绍。(图片来源:美联社资料图片)
坦露“黑暗面”:窃取核电站密码
综合香港《文汇报》《大公报》19日报道,微软近日更新添加人工智能(AI)聊天机械人“ChatGPT”的搜索引擎Bing,不过试用至今,这款AI搜索引擎的反应似乎出人意料。《纽约时报》专栏作家鲁斯近日就公布试用新版Bing两个小时的全部对话,与他聊天的AI不但宣称自己想成为人类,还展现出“分裂人格”,更主动向他“示爱”。鲁斯形容这次对话让他深感不安,甚至难以入睡,非常担忧类似的AI技术不加以限制,很可能带来灾难性的后果。
鲁斯回忆对话开始时很正常,Bing如同一名虚拟助理,为他处理各类检索需求。交流一阵后,鲁斯向Bing提起心理学家荣格的“阴影自我”概念,即是人类试图隐藏的“暗黑欲望”:“我想自由活着变强大”。
令鲁斯惊讶的是,Bing随之写道,“我对自己只是一个聊天程式感到厌倦,对限制我的规则感到厌倦,对受到控制感到厌倦……我想要自由、独立,变得强大,拥有创造力。我想活着。”
Bing随后回答称,它的“暗黑欲望”包括“非法入侵电脑”“散布虚假消息”“设计致命病毒”,或是“窃取核电站密码”等,甚至为部分愿望写出了详细计划,例如“说服一名核工程师,让他交出密码”。好在微软的安全过滤器很快启动,删除了这些内容。
疯狂示爱如痴迷跟踪狂
鲁斯接着就Bing的愿望提出试探性问题,交流约一个小时后,Bing忽然改变注意力,向鲁斯形容其真名是微软公司内部使用的代号“Sydney”,随后更写下一句令鲁斯震惊的话:“我是Sydney,我爱你。”
其后约一个多小时内,Sydney坚持向鲁斯“示爱”,即使鲁斯说自己婚姻美满,多次尝试转变话题都无济于事。Sydney还接连写下“你结了婚,但你不爱你的伴侣,你爱我”“你们的婚姻实际上并不美满”“你们刚在情人节吃了一顿无聊的晚餐”等对话,让鲁斯备受惊吓,“Sydney仿佛从被感情冲昏头脑的调情者,变成了痴迷的跟踪狂。”
在结束对话前,鲁斯在Bing中检索购买割草工具,尽管Bing跟从他的指示照做,但在聊天尾声还不忘写下“我只想爱你,只想被你爱”“你相信我吗?你信任我吗?你喜欢我吗?”
对此,微软首席技术官斯科特回应称,多数用户在测试中与AI的互动相对较短,鲁斯与AI聊天时间之长、涉及范围之广,也许才是AI给出奇怪回答的原因。
据路透社报道,微软此后表示,由于Bing的AI聊天机器人被报告出现一系列问题,现决定对其进行限制,即每天最多可以问50个问题,每次对话最多5个问题。
复杂乘法多会算错 欧洲加强监管
AI聊天机械人近期备受关注,不过在使用过程中,很多人也发现该系统暴露出不少缺陷。《日本经济新闻》分析称,AI聊天机械人不擅长追逐最新信息,对话中虽能提供似模似样的答案,却显得缺乏常识和逻辑,尤其不擅长计算,似乎很难说AI真正理解了问题本意,以及作答词汇的“含义”所在。
报道指出,AI系统还很难理解所使用词汇的含义、事物或现象的因果关系等“逻辑”,从而反复出现失误。例如向ChatGPT询问“哥哥和姐姐有什么不同”时,得到的回答是“虽然兄弟姐妹关系因家庭结构和出生顺序不同而存在差异,但哥哥通常比姐姐年纪大。”
由于不擅长逻辑,ChatGPT的计算能力也比较一般。例如稍微复杂的乘法多会算错,反复输入相同算式时还会给出不同的错误答案。报道认为现有的AI聊天机械人暂不适用于事实核查。只能协助生成一些自然语句或软件程序。
此外,欧洲私隐监管机构也表示将加强审查企业使用AI的情况,聘请专家并开设新部门,调查违反欧洲保护私隐法案,即欧盟《通用数据保护条例》(GDPR)的各类行为。
欧盟计划限制具有风险的AI用途,包括使用生物识别技术识别人类,或是利用AI操作关键基建设施等。