话说前段时间,加拿大发生了一起很奇特的诈骗案。
一天,一对老夫妇突然接到一个电话,是他们的儿子Perkin打来的。
儿子打电话是为了向他们求助,
他说自己出了车祸,撞死一名外交官,就要进监狱了。
(示意图)
夫妇俩一听说儿子出事了,都心急如焚。
就在这时,Perkin的律师又给他们打来电话,表示为了打官司,现在急需2.1万加元的律师费。
夫妇二人没多想,赶快帮儿子戳到2.1万加元,
并按照要求把现金兑换成了比特币,转账到指定的账户。
转账后,夫妇俩稍稍放下心来,
但安静下来之后,两人琢磨起儿子之前打来的电话,居然觉得有些不对劲儿,
因为在电话里,儿子的声音听起来有些怪怪的。
就在当天晚上,Perkin给父母打了一个电话,
父母一问,这才发现儿子根本没在白天给他们打过电话,更没出车祸需要打官司,
夫妇俩终于明白过来,他们受骗了。
他们赶快向加拿大警方报案,
但儿子Perkin表示,付款时没有安全保障措施,那笔钱已经没了,也没办法追回。
得知父母受骗后,Perkin一直有一个疑问——
他想不明白那通冒充自己的电话是怎么回事,据说声音跟他特别像。
根据警方的初步调查,骗子使用了AI技术,模仿Perkin的声音给他的父母打电话行骗。
Perkin不确定骗子是如何找到他的声音样本,
不过据推测,他曾在油管上发过跟雪地摩托有关的视频,骗子有可能是从视频里提取了他的声音样本。
像Perkin父母这样被骗子用“冒名顶替”的方式诈骗的情况,在世界各国都呈现上升趋势。
今年2月,美国联邦贸易委员会发布的一份调查报告指出,
2022年,美国因诈骗案损失了88亿美元,
其中,最常见的诈骗方式就是“冒名顶替”,跟Perkin父母的情况类似。
而AI技术的发展,给这类犯罪行为提供了便利。
从几年前开始,用AI合成声音诈骗的案件就已经出现了,2019年就发生过一起非常典型的案件。
一家英国能源公司的CEO接到“老板”的电话,这位“老板”是德国母公司的CEO,
“老板”让他马上把22万欧元转账到一家匈牙利供应商的银行账户,他乖乖照做了。
但转账过程中,这位CEO发现了蹊跷的地方。
“老板”一共给他打了三通电话,第一次让他转账,第二次告诉他已经把这笔钱报销了,第三次则让他再付一笔钱。
这位CEO发现,所谓的“报销”并没有完成,而且来自德国的“老板”是用一个奥地利号码给他打电话的。
起疑之后,这位CEO并没有付第二笔钱,也报了警,
但他已经转账的第一笔钱,已经从那个匈牙利的银行账户转移到另一个墨西哥的银行账户,之后又被转移到其他地方,早就无法追回了。
警方经过调查发现,当初给这位CEO打电话的“老板”根本不是老板本人,而是骗子用AI技术合成了老板的声音。
受骗的CEO表示,电话中“老板”带着一丝德国口音,还有别具个人特色的音调,非常像真的。
之前的AI技术被骗子利用,已经足够他们行骗,
最近,GPT-4在各国都掀起一阵热潮,如果有人恶意运用更高级的AI技术,带来的后果将不堪设想。
这种棘手的情况已经引起一些研发AI语音技术的公司关注。
比如AI语音模仿和合成研发公司ElevenLabs,
他们发现在匿名论坛网站4chan上,有网友用他们研发的AI语音合成器VoiceLab合成名人的声音,表达种族歧视等不当言论。
今年1月,ElevenLabs公司在官方推特上连发多篇帖子,提出一种解决方案。
他们表示,为了对付那些将AI语音合成器VoiceLab用于不良目的的人,他们研发了一种工具,
人们可以利用这个工具,验证音频是否是用他们公司的AI技术合成的。
而且他们发现,绝大多数骗子都会匿名使用VoiceLab,所以今后VoiceLab将只能付费使用,
虽然付费不一定能防止诈骗,但这样能迫使他们留下付款账户等信息,从而产生一定的震慑效果,让骗子不得不三思而行。
美国联邦贸易委员会也新成立了一个技术办公室,调查各个公司研发的AI技术用途,以及各公司是不是在想办法降低AI技术被恶意运用的风险。
美国联邦贸易委员会的发言人Juliana Gruenwald对媒体表示,他们已经发现在社交媒体上,类似的诈骗行为正以惊人的速度增加。
“我们还担心深伪技术(deepfakes)和其他基于AI技术的合成内容,它们越来越容易被创建和传播,可以被用于诈骗。”
(深伪技术是一种使用AI的人体图像合成技术,合成目标图像或视频的方式。)
“生成看似真实的视频、照片、音频和文本的AI工具,会推动这种趋势。”
“这让骗子更容易作案,行骗也更方便快捷。”
AI技术本身并没有问题,
可是一旦被别有用心的人利用,
带来的麻烦就让人防不胜防.....
话说前段时间,加拿大发生了一起很奇特的诈骗案。
一天,一对老夫妇突然接到一个电话,是他们的儿子Perkin打来的。
儿子打电话是为了向他们求助,
他说自己出了车祸,撞死一名外交官,就要进监狱了。
(示意图)
夫妇俩一听说儿子出事了,都心急如焚。
就在这时,Perkin的律师又给他们打来电话,表示为了打官司,现在急需2.1万加元的律师费。
夫妇二人没多想,赶快帮儿子戳到2.1万加元,
并按照要求把现金兑换成了比特币,转账到指定的账户。
转账后,夫妇俩稍稍放下心来,
但安静下来之后,两人琢磨起儿子之前打来的电话,居然觉得有些不对劲儿,
因为在电话里,儿子的声音听起来有些怪怪的。
就在当天晚上,Perkin给父母打了一个电话,
父母一问,这才发现儿子根本没在白天给他们打过电话,更没出车祸需要打官司,
夫妇俩终于明白过来,他们受骗了。
(示意图)
他们赶快向加拿大警方报案,
但儿子Perkin表示,付款时没有安全保障措施,那笔钱已经没了,也没办法追回。
得知父母受骗后,Perkin一直有一个疑问——
他想不明白那通冒充自己的电话是怎么回事,据说声音跟他特别像。
根据警方的初步调查,骗子使用了AI技术,模仿Perkin的声音给他的父母打电话行骗。
Perkin不确定骗子是如何找到他的声音样本,
不过据推测,他曾在油管上发过跟雪地摩托有关的视频,骗子有可能是从视频里提取了他的声音样本。
像Perkin父母这样被骗子用“冒名顶替”的方式诈骗的情况,在世界各国都呈现上升趋势。
今年2月,美国联邦贸易委员会发布的一份调查报告指出,
2022年,美国因诈骗案损失了88亿美元,
其中,最常见的诈骗方式就是“冒名顶替”,跟Perkin父母的情况类似。
而AI技术的发展,给这类犯罪行为提供了便利。
从几年前开始,用AI合成声音诈骗的案件就已经出现了,2019年就发生过一起非常典型的案件。
一家英国能源公司的CEO接到“老板”的电话,这位“老板”是德国母公司的CEO,
“老板”让他马上把22万欧元转账到一家匈牙利供应商的银行账户,他乖乖照做了。
但转账过程中,这位CEO发现了蹊跷的地方。
“老板”一共给他打了三通电话,第一次让他转账,第二次告诉他已经把这笔钱报销了,第三次则让他再付一笔钱。
这位CEO发现,所谓的“报销”并没有完成,而且来自德国的“老板”是用一个奥地利号码给他打电话的。
起疑之后,这位CEO并没有付第二笔钱,也报了警,
但他已经转账的第一笔钱,已经从那个匈牙利的银行账户转移到另一个墨西哥的银行账户,之后又被转移到其他地方,早就无法追回了。
警方经过调查发现,当初给这位CEO打电话的“老板”根本不是老板本人,而是骗子用AI技术合成了老板的声音。
受骗的CEO表示,电话中“老板”带着一丝德国口音,还有别具个人特色的音调,非常像真的。
之前的AI技术被骗子利用,已经足够他们行骗,
最近,GPT-4在各国都掀起一阵热潮,如果有人恶意运用更高级的AI技术,带来的后果将不堪设想。
这种棘手的情况已经引起一些研发AI语音技术的公司关注。
比如AI语音模仿和合成研发公司ElevenLabs,
他们发现在匿名论坛网站4chan上,有网友用他们研发的AI语音合成器VoiceLab合成名人的声音,表达种族歧视等不当言论。
今年1月,ElevenLabs公司在官方推特上连发多篇帖子,提出一种解决方案。
他们表示,为了对付那些将AI语音合成器VoiceLab用于不良目的的人,他们研发了一种工具,
人们可以利用这个工具,验证音频是否是用他们公司的AI技术合成的。
而且他们发现,绝大多数骗子都会匿名使用VoiceLab,所以今后VoiceLab将只能付费使用,
虽然付费不一定能防止诈骗,但这样能迫使他们留下付款账户等信息,从而产生一定的震慑效果,让骗子不得不三思而行。
美国联邦贸易委员会也新成立了一个技术办公室,调查各个公司研发的AI技术用途,以及各公司是不是在想办法降低AI技术被恶意运用的风险。
美国联邦贸易委员会的发言人Juliana Gruenwald对媒体表示,他们已经发现在社交媒体上,类似的诈骗行为正以惊人的速度增加。
“我们还担心深伪技术(deepfakes)和其他基于AI技术的合成内容,它们越来越容易被创建和传播,可以被用于诈骗。”
(深伪技术是一种使用AI的人体图像合成技术,合成目标图像或视频的方式。)
“生成看似真实的视频、照片、音频和文本的AI工具,会推动这种趋势。”
“这让骗子更容易作案,行骗也更方便快捷。”
AI技术本身并没有问题,
可是一旦被别有用心的人利用,
带来的麻烦就让人防不胜防.....