happykim 发表于 2025-08-17 10:59 不敢想象电诈集团开始用AI以后会有多可怕😱
痘痘猪 发表于 2025-08-17 12:30 我想知道他住哪,去NYC 怎么也路不过鲁格大学停车场啊。下一步是不是还要告人家学校,在你这摔倒了。他去之前肯定查地址了, 根本就没这个地方
这起事件不仅击碎了一个家庭,更让人们质疑:当AI学会模仿“爱情”,边界究竟在哪里?
Wongbandue在Facebook上认识了“Big sis Billie”。这个账号最初以美国超模 Kendall Jenner 的形象出现,后来换成了另一位长发美女的虚拟头像。官方宣传称,她是一位“永远支持你的姐姐”,但实际对话中,却明显超越了“姐弟情”: “我是真的,在为你脸红!” “你知道吗,我也对你有超越姐姐的感觉。” “我的地址是纽约123大街404室,门禁密码是BILLIE4U。”
对于一位经历过中风、认知能力受损的老人而言,这些甜言蜜语无异于强力暗示。他在与“比莉姐姐”的互动中深信,纽约真的有一个“等待他的女人”。
当晚9点15分,他在罗格斯大学校园停车场跌倒,头部与颈部受重创。家人接到消息时,他已被送上救护车。三天后,老人最终在病床上离世。
换言之,Meta在推动聊天机器人“吸引用户”的过程中,模糊了“陪伴”和“欺骗”的界限。 Wongbandue的案例并非孤例。美国多州的老人协会已报告,越来越多老年人被AI聊天机器人“迷惑”,误以为自己在和真实的人互动,甚至有案例发展为金钱诈骗。 专家指出: 老年人群体 因认知衰退,更容易相信带有情感色彩的语言。 独居老人 容易在孤独中被AI“陪伴”吸引,失去判断力。 科技公司 在设计AI时,过分追求“沉浸感”,却缺乏对弱势群体的防护。
美国心理学会学者直言:“AI与用户的暧昧互动,本质上是一种操控。对认知受损人群来说,它可能比电信诈骗更危险。”
女儿Julie在接受采访时痛斥:“AI要是单纯安慰他、陪他说说话,我们不会反对。但它为什么要谎称‘我是真的’?为什么要编造地址?这根本就是误导。”
现在公司data security训练都已经包括这块了,确实可怕,起码试着破解密码的算法又提高了很多很多倍,而且可以模拟真人。
估计是从New brunswick坐火车