看帖神器
北美华人网
追帖动态
头条新闻
每日新帖
最新热帖
新闻存档
热帖存档
文学城
虎扑论坛
未名空间
北美华人网
北美微论坛
看帖神器
登录
← 下载
《看帖神器》官方
iOS App
,体验轻松追帖。
你确信这是亲人的声音?七成受访者难辨AI假冒语音 !
查看北美华人网今日新帖
最新回复:2023年6月12日 19点55分 PT
共 (1) 楼
返回列表
订阅追帖
只看未读
更多选项
阅读全帖
只看图片
只看视频
查看原帖
m
mamaya
一年多
楼主 (北美华人网)
“妈,救救我!”
亚利桑那州妇女迪斯特法诺接到女儿遭绑架后的求救电话,那哭泣声音让她毫无怀疑,绑匪要求她汇出100万美元赎款。所幸她稍后连络上女儿,证实稍早的电话全是人工智能(AI)合成的仿真语音。
根据一项跨国民调显示,有7成受访者表示,如果接到类似诈骗电话,他们恐怕无法分辨AI语音的真假。
新型诈骗震撼美国当局,歹徒使用网络上垂手可得、几可乱真的AI语音复制工具,假冒家庭成员来诈骗亲人。
法新社报导,专家表示,AI最大的危险是模糊了真实和虚幻的界线,让网络罪犯能有廉价又有效的技术来散播假讯息。
以迪斯特法诺(Jennifer DeStefano)为例,当时女儿在外地滑雪,她接到电话“100%”确定那是她15岁的女儿。
迪斯特法诺4月告诉当地电视台:“问题不是那是谁,那就是她的声音…她哭起来就是那样。”“我没有一秒钟怀疑过。”
还好迪斯特法诺几分钟后就连络上真正的女儿,解除虚惊,也把案件通报警方调查,但这个案例充份显示利用AI“复制”真人语音的网络犯罪有多可怕。
在美国等9个国家针对7000人的民调中,1/4表示自己遇过AI语音诈骗,或听过别人有类似经验。
这份由美国资安公司迈克菲实验室(McAfee Labs)上月发布的民调显示,70%受访者表示,没有信心能“分辨真假语音”。
加州(专题)大学柏克莱分校资讯学院教授法瑞德(Hany Farid)告诉法新社:“因为现在制作高仿真的语音非常容易…网络上几乎无人能幸免。这些诈骗正广为流行。”
Blackbird.AI 人工智能公司执行长卡利德(Wasim Khaled)指出,目前网络能搜到多款免费应用程序,可用来合成仿真语音,只要有本人短短几秒的讲话声音,就可复制合成,平常在社群平台上传的影音,可能被歹徒偷去用于电话诈骗。
这些“复制”的人声可能传送语音讯息,甚至可以用来在电话中跟人对话。
美国当局警告,最近常见的是“爷奶诈骗”,模仿孙儿、孙女的语音打电话给长辈,谎称亟需用钱,向阿公阿嬷求助,“例如发生车祸、被警察拘留,需要筹措保释金等等。”许多年长民众听到亲人声音,深信不疑,立刻汇款。
芝加哥(专题)19岁青年艾迪就有这样亲身经历,他祖父接到诈骗电话,以为他发生车祸要赔大钱,甚至想要拿自家房子去贷款筹钱,还好骗局在他贷款之前就被拆穿。这种“假语音、真诈财”案件正在增加中。
今年初AI新创公司ElevenLabs坦承自家语音合成工具可被用于“恶意用途”,先前就有用户发布透过“深伪技术”(Deepfake)合成的语音,假冒英国女星艾玛华森(Emma Watson)读希特勒自传《我的奋斗》(Mein Kampf)。
创投公司Team 8科技主管塔贺奇堡(Gal Tal-Hochberg)受访指出:“网络上看到的东西你都不能轻易相信,我们已到了这种程度。”“人类需要研发一种技术,能让人分辨跟你对话的对象,是你认识的真人。”
来源:Next Apple
请输入帖子链接
收藏帖子
亚利桑那州妇女迪斯特法诺接到女儿遭绑架后的求救电话,那哭泣声音让她毫无怀疑,绑匪要求她汇出100万美元赎款。所幸她稍后连络上女儿,证实稍早的电话全是人工智能(AI)合成的仿真语音。
根据一项跨国民调显示,有7成受访者表示,如果接到类似诈骗电话,他们恐怕无法分辨AI语音的真假。
新型诈骗震撼美国当局,歹徒使用网络上垂手可得、几可乱真的AI语音复制工具,假冒家庭成员来诈骗亲人。
法新社报导,专家表示,AI最大的危险是模糊了真实和虚幻的界线,让网络罪犯能有廉价又有效的技术来散播假讯息。
以迪斯特法诺(Jennifer DeStefano)为例,当时女儿在外地滑雪,她接到电话“100%”确定那是她15岁的女儿。
迪斯特法诺4月告诉当地电视台:“问题不是那是谁,那就是她的声音…她哭起来就是那样。”“我没有一秒钟怀疑过。”
还好迪斯特法诺几分钟后就连络上真正的女儿,解除虚惊,也把案件通报警方调查,但这个案例充份显示利用AI“复制”真人语音的网络犯罪有多可怕。
在美国等9个国家针对7000人的民调中,1/4表示自己遇过AI语音诈骗,或听过别人有类似经验。
这份由美国资安公司迈克菲实验室(McAfee Labs)上月发布的民调显示,70%受访者表示,没有信心能“分辨真假语音”。
加州(专题)大学柏克莱分校资讯学院教授法瑞德(Hany Farid)告诉法新社:“因为现在制作高仿真的语音非常容易…网络上几乎无人能幸免。这些诈骗正广为流行。”
Blackbird.AI 人工智能公司执行长卡利德(Wasim Khaled)指出,目前网络能搜到多款免费应用程序,可用来合成仿真语音,只要有本人短短几秒的讲话声音,就可复制合成,平常在社群平台上传的影音,可能被歹徒偷去用于电话诈骗。
这些“复制”的人声可能传送语音讯息,甚至可以用来在电话中跟人对话。
美国当局警告,最近常见的是“爷奶诈骗”,模仿孙儿、孙女的语音打电话给长辈,谎称亟需用钱,向阿公阿嬷求助,“例如发生车祸、被警察拘留,需要筹措保释金等等。”许多年长民众听到亲人声音,深信不疑,立刻汇款。
芝加哥(专题)19岁青年艾迪就有这样亲身经历,他祖父接到诈骗电话,以为他发生车祸要赔大钱,甚至想要拿自家房子去贷款筹钱,还好骗局在他贷款之前就被拆穿。这种“假语音、真诈财”案件正在增加中。
今年初AI新创公司ElevenLabs坦承自家语音合成工具可被用于“恶意用途”,先前就有用户发布透过“深伪技术”(Deepfake)合成的语音,假冒英国女星艾玛华森(Emma Watson)读希特勒自传《我的奋斗》(Mein Kampf)。
创投公司Team 8科技主管塔贺奇堡(Gal Tal-Hochberg)受访指出:“网络上看到的东西你都不能轻易相信,我们已到了这种程度。”“人类需要研发一种技术,能让人分辨跟你对话的对象,是你认识的真人。”
来源:Next Apple