“妈,救救我!”美国亚利桑那州妇女迪斯特法诺接到女儿遭绑架后的求救电话,那哭泣声音让她毫无怀疑,绑匪要求她汇出100万美元赎款。所幸她稍后连络上女儿,证实稍早的电话全是人工智能(AI)合成的仿真语音。根据一项跨国民调显示,有7成受访者表示,如果接到类似诈骗电话,他们恐怕无法分辨AI语音的真假。 新型诈骗震撼美国当局,歹徒使用网络上垂手可得、几可乱真的AI语音复制工具,假冒家庭成员来诈骗亲人。 法新社报导,专家表示,AI最大的危险是模糊了真实和虚幻的界线,让网络罪犯能有廉价又有效的技术来散播假讯息。 以迪斯特法诺(Jennifer DeStefano)为例,当时女儿在外地滑雪,她接到电话“100%”确定那是她15岁的女儿。 迪斯特法诺4月告诉当地电视台:“问题不是那是谁,那就是她的声音…她哭起来就是那样。”“我没有一秒钟怀疑过。” 还好迪斯特法诺几分钟后就连络上真正的女儿,解除虚惊,也把案件通报警方调查,但这个案例充份显示利用AI“复制”真人语音的网络犯罪有多可怕。 在美国等9个国家针对7000人的民调中,1/4表示自己遇过AI语音诈骗,或听过别人有类似经验。 这份由美国资安公司迈克菲实验室(McAfee Labs)上月发布的民调显示,70%受访者表示,没有信心能“分辨真假语音”。 加州大学柏克莱分校资讯学院教授法瑞德(Hany Farid)告诉法新社:“因为现在制作高仿真的语音非常容易…网络上几乎无人能幸免。这些诈骗正广为流行。” Blackbird.AI 人工智能公司执行长卡利德(Wasim Khaled)指出,目前网络能搜到多款免费应用程序,可用来合成仿真语音,只要有本人短短几秒的讲话声音,就可复制合成,平常在社群平台上传的影音,可能被歹徒偷去用于电话诈骗。 这些“复制”的人声可能传送语音讯息,甚至可以用来在电话中跟人对话。 美国当局警告,最近常见的是“爷奶诈骗”,模仿孙儿、孙女的语音打电话给长辈,谎称亟需用钱,向阿公阿嬷求助,“例如发生车祸、被警察拘留,需要筹措保释金等等。”许多年长民众听到亲人声音,深信不疑,立刻汇款。 芝加哥19岁青年艾迪就有这样亲身经历,他祖父接到诈骗电话,以为他发生车祸要赔大钱,甚至想要拿自家房子去贷款筹钱,还好骗局在他贷款之前就被拆穿。这种“假语音、真诈财”案件正在增加中。 今年初AI新创公司ElevenLabs坦承自家语音合成工具可被用于“恶意用途”,先前就有用户发布透过“深伪技术”(Deepfake)合成的语音,假冒英国女星艾玛华森(Emma Watson)读希特勒自传《我的奋斗》(Mein Kampf)。 创投公司Team 8科技主管塔贺奇堡(Gal Tal-Hochberg)受访指出:“网络上看到的东西你都不能轻易相信,我们已到了这种程度。”“人类需要研发一种技术,能让人分辨跟你对话的对象,是你认识的真人。”
“妈,救救我!”美国亚利桑那州妇女迪斯特法诺接到女儿遭绑架后的求救电话,那哭泣声音让她毫无怀疑,绑匪要求她汇出100万美元赎款。所幸她稍后连络上女儿,证实稍早的电话全是人工智能(AI)合成的仿真语音。根据一项跨国民调显示,有7成受访者表示,如果接到类似诈骗电话,他们恐怕无法分辨AI语音的真假。
新型诈骗震撼美国当局,歹徒使用网络上垂手可得、几可乱真的AI语音复制工具,假冒家庭成员来诈骗亲人。
法新社报导,专家表示,AI最大的危险是模糊了真实和虚幻的界线,让网络罪犯能有廉价又有效的技术来散播假讯息。
以迪斯特法诺(Jennifer DeStefano)为例,当时女儿在外地滑雪,她接到电话“100%”确定那是她15岁的女儿。
迪斯特法诺4月告诉当地电视台:“问题不是那是谁,那就是她的声音…她哭起来就是那样。”“我没有一秒钟怀疑过。”
还好迪斯特法诺几分钟后就连络上真正的女儿,解除虚惊,也把案件通报警方调查,但这个案例充份显示利用AI“复制”真人语音的网络犯罪有多可怕。
在美国等9个国家针对7000人的民调中,1/4表示自己遇过AI语音诈骗,或听过别人有类似经验。
这份由美国资安公司迈克菲实验室(McAfee Labs)上月发布的民调显示,70%受访者表示,没有信心能“分辨真假语音”。
加州大学柏克莱分校资讯学院教授法瑞德(Hany Farid)告诉法新社:“因为现在制作高仿真的语音非常容易…网络上几乎无人能幸免。这些诈骗正广为流行。”
Blackbird.AI 人工智能公司执行长卡利德(Wasim Khaled)指出,目前网络能搜到多款免费应用程序,可用来合成仿真语音,只要有本人短短几秒的讲话声音,就可复制合成,平常在社群平台上传的影音,可能被歹徒偷去用于电话诈骗。
这些“复制”的人声可能传送语音讯息,甚至可以用来在电话中跟人对话。
美国当局警告,最近常见的是“爷奶诈骗”,模仿孙儿、孙女的语音打电话给长辈,谎称亟需用钱,向阿公阿嬷求助,“例如发生车祸、被警察拘留,需要筹措保释金等等。”许多年长民众听到亲人声音,深信不疑,立刻汇款。
芝加哥19岁青年艾迪就有这样亲身经历,他祖父接到诈骗电话,以为他发生车祸要赔大钱,甚至想要拿自家房子去贷款筹钱,还好骗局在他贷款之前就被拆穿。这种“假语音、真诈财”案件正在增加中。
今年初AI新创公司ElevenLabs坦承自家语音合成工具可被用于“恶意用途”,先前就有用户发布透过“深伪技术”(Deepfake)合成的语音,假冒英国女星艾玛华森(Emma Watson)读希特勒自传《我的奋斗》(Mein Kampf)。
创投公司Team 8科技主管塔贺奇堡(Gal Tal-Hochberg)受访指出:“网络上看到的东西你都不能轻易相信,我们已到了这种程度。”“人类需要研发一种技术,能让人分辨跟你对话的对象,是你认识的真人。”