AI模仿"儿子声音求救"骗走老夫妇2万多美元!真声遭窃漏洞竟在这儿

m
mamaya
楼主 (北美华人网)
加拿大一对夫妻接到"儿子"来电表示出车祸急需法律费用,赶紧透过比特币汇款2.1万美元,后来才知道惨遭诈骗,原来熟悉嗓音竟是人工智慧(AI)模拟而成。《商业内幕》指出,诈骗集团可能从当事人在YouTube发布的雪上摩托车影片撷取音轨,进而仿造声音。
《华盛顿邮报》报导,受害夫妻接到第一通电话,从自称"律师"的男子口中得知,儿子班杰明(Benjamin Perkin)在一场车祸中撞死外交官而入狱,话筒还传来"班杰明的声音"开口要钱。后来,他们又接到第二通电话,"律师"宣称班杰明需要2.1万美元法律费用才能出庭。
夫妻俩爱子心切,迅速筹措资金汇款,后来才隐约感觉有些奇怪。不过,直到"真正的"班杰明当天稍晚打电话过来,他们才惊觉被骗。
班杰明受访时说,那个声音"足够接近(我的声音),让我的父母真的相信他们在跟我说话。"尽管一家人赶紧向加拿大当局报案,但"钱不见了,没有保险,拿不回来了。"


《商业内幕》报导,更强大的人工智慧兴起之际,冒充身份的诈骗案也持续增多。不过,早在ChatGPT问世之前,涉及AI技术的诈骗就已经出现。
2019年,英国能源公司(British Energy)一名经理把24万多美元汇入一个匈牙利帐户,因为他以为"老板"打电话要求这么做。今年1月,研究AI声音复制及语音合成的美国新创公司ElevenLabs也表示,他们注意到有人"把我们的科技用于恶意目的",出现"越来越多声音复制的滥用案例"。
举例来说,4chan等匿名论坛上就有不肖人士使用AI技术模拟与名人相似的声音,说出种族歧视等不恰当言论。

美国联邦贸易委员会(FTC)去年一共接获240万人通报诈欺案,最常见类型就是冒名顶替者诈骗(Imposter scams),尽管案件数比前一年低,损失金额却更高,达到88亿美元。
FTC已经新成立一间科技办公室,专门调查有发展前景且可能使用AI的公司,是否尝试降低产品可能造成的风险。
发言人格伦瓦尔德(Juliana Gruenwald)表示,他们已经发现社群媒体上的诈欺案激增,"产生看似真实影片、相片、音档及文本的AI工具可能加速这个趋势,让骗子更容易接触受害者,速度也更快…我们也关心深伪技术(deepfake)与其他基于人工智慧的合成媒体的风险,它们变得越来越容易创作及散布,将被用于诈骗。"
来源:大纽约华人资讯
l
lavinder1
回复 1楼mamaya的帖子
所以如果不是网红 少在网上发照片录像 这些东西以后都可以被deepfake合成骗子录像的