10分钟骗400万!骗子手里的AI把所有人都耍了

今日头条
Toutiao
最新回复:2023年5月25日 6点50分 PT
  返回列表
68974 阅读
7 评论
金错刀

10分钟,骗走430万。

无所不能的AI,再次刷新了瞒天过海的速度。

最近,“AI诈骗正在全国爆发,诈骗成功率接近100%”登顶了热搜第一,中国警方在线也紧急提醒大家反诈。

这次被AI耍的团团转的,没想到是一位科技公司的老板。

老郭的好友给他打了一通微信视频,说自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走一下账。

在这通微信视频里,对方先要了老郭的银行卡号,声称已经打了钱,甚至还发了银行转账截图。

又是视频聊天,又是转账记录,谁都猜不出来对面是个AI假人。

结果,老郭没有核实钱是否到账,迅速把430万打过去了。

直到钱款转账后,老郭给好友微信发了一条消息,称事情已经办妥。但让他没想到的是,好友回过来的消息竟然是一个问号。

他这才意识到竟然遇上了“高端”骗局,对方通过智能AI换脸技术,佯装成好友对他实施了诈骗。

骗子对于AI技术的运用之快、运用程度之高令人咋舌——AI换脸、AI换声,拦截微信号,几乎无一不出自AI技术之手。

最恐怖的是效率之快,整个过程不过短短十分钟。

谷歌前CEO之前就发出警告,“AI被滥用迟早会威胁人类生存”,但那时不少人觉得是杞人忧天。

“彻底黑化”的AI诈骗,到底是如何一步步瞒天过海的?

AI一黑化,坐地铁也能一丝不挂

这两年,AI换脸已经不是新鲜事。

AI技术一秒整容,baby的脸变成热巴,这样的视频从一开始的惊掉下巴到如今的见怪不怪。

有些直播间发现商机,干脆用AI换脸的杨幂、迪丽热巴在直播间卖货。

小到恶搞名人,自娱自乐。

比如,之前有国外网友用Midjourney生成“教皇穿羽绒服”,图片质量之高完全做到了以假乱真,被浏览了2800多万次,还引起了不小的骚动。

前不久,日本的一位女议员在网上大火。

在大部分人的印象中,议员这个职位总是严肃并且保守的,根据网上的信息,这位女议员是日本内阁的“厚生劳动大臣”。

作为日本内阁中重要的职位之一,这位女议员却过于“赏心悦目”了。

外表和身份所带来的反差感,让这位女议员在推特上积累了超高的人气,只要有她的照片,随便一发都能带来几百万点击量。

还有美国前总统川普被警察逮捕,编写的有鼻子有眼,而且有图有真相。

就冲这酷似视频截图的画质,很多人似乎认为川普真被抓了。

大到一张AI图片,就能让股价暴跌。

就在这周一,美国国防部五角大楼爆炸、浓烟滚滚的造假照片在网上疯传,引起了不小恐慌。

由于当下没有可以交叉比对的新闻报道,很多网友都信以为真。

结果,美股闻讯一度暴跌,这可能是人工智能生成图片影响市场的首例。

美国许多观察家认为,这张疑为AI生成的照片经由多个帐号散布出去,迫使国防部出面澄清五角大楼并未发生爆炸。

最后,美国防部发言人说:“我们可以证实这是假消息,五角大楼并未遭到攻击。”

真是造谣一秒钟,辟谣一整天。

而当AI“以假乱真”的作图技术,遇到ChatGPT“瞬间写作”的能力,会发生什么?

结果是,更放飞自我了。

前不久,估计很多刀哥读者也看到这样一条新闻—— 22岁的加拿大小哥为了在韩国顺利出道,以防弹少年团的朴智旻为模版,整容了12次,花费了上百万。

每日邮报报道,最后不幸丧命。

在这条新闻下面,很多人痛批韩娱的畸形审美、整容就是圈钱,结果被证实是AI炮制的假新闻。

甚至你会发现,有了AI的“加持”,流量就能轻松拿捏。

甘肃平凉市公安局崆峒分局网安大队发现,多达21个网站上同步出现了一条本地“新闻”:《痛心!甘肃一火车撞上修路工人,致9人死亡。》

如此骇人听闻的标题外加大体量的集中报道,这条“新闻”的点击量迅速爆炸。

当地网警立刻介入,调查后发现,犯罪嫌疑人就是利用了AI技术进行的新闻造假。

他先是购买了大量账号,再通过ChatGPT全网抓取社会热点新闻素材,简单修改一番就能避开平台的查重审查,炮制出假新闻。

为的就是在各大平台获取流量变现。

广州一个女孩只是在小红书上,发了张自己坐地铁出门的普通照片,没想到却被人用AI“一键脱衣”,并配上虚构的文字造黄谣。

在时间、地点都对得上的情况下,搭配AI强大的算法,谣言满天飞。

当骗子拥有AI,成功率飙到100%

如果说前期AI的“黑化”还停留在恶搞和造谣,那么直到被骗子盯上时:

突破想象的骗局才刚刚开始。

比如在10分钟骗走430万这个诈骗中,核心涉及了AI换脸以及语音合成这两个技术。

有关AI 换脸软件,多数是AI深度伪造(Deepfake)技术的化身,最初源于一个名为 “deepfakes” 用户。

Deepfake 最初的用法,局限性还较大,只能对已有视频进行后期“换脸”。

比如,把《射雕英雄传》里的朱茵换成杨幂,五年前就实现了。

原理就是

把视频分割成一张张连续图片,将每一张图片中的脸进行替换,最后将全部替换后的图片再合成视频。

然而随着 AI 技术的逐渐发展,最让人担心的事情还是发生了:用 AI 可以实时“换脸”了。

比如,下面这个换脸速度和逼真程度,只有一个字:绝。

甚至成本也越来越低,合成一个动态视频,成本也仅在2元至10元。

有行业内人士爆料,“客户”往往是成百上千购买,牟利空间巨大。

至于面向更精准、更实时的大型直播平台,视频实时换脸的全套模型购买价格在3.5万元,甚至不存在延迟、也不会有bug。

至于像语音合成方面,技术效果也是越来越逼真。

比如,过去骚扰电话只是诈骗,但现在就算诈骗不成,骗子通过骚扰电话录音等来提取你的声音,获取素材后进行声音合成。

这样一来,你的声音样本就被骗子轻松提取。

前段时间,微软发布了新模型VALL·E:只需3秒,就可以复制任何人的声音,甚至连环境背景音都能模仿。

当这两项技术门槛和成本变得越来越低时,骗子就嗅到了钱的味道。

在南京,有人收到了自己大学同学的QQ留言,说目前在医院,表姐住院了真的很着急,急需3800元住院费。

这时候,一般人还不会上当。

直到对方发过来一条视频,不仅背景在医院,而且还打了声招呼,语音语调都非常逼真。

没想到,在他转账之后迅速被拉黑,最后发现视频原来是AI伪造的。

不久之前,西班牙的一家电影制作公司也遭受了AI电话的诈骗,诈骗者伪装成著名演员“卷福”。

大佬主动找上门,这让这家电影公司很兴奋。

但“AI卷福”说,“我对你们很感兴趣,但需要公司先转20万英镑(约170万人民币)的定金,之后再谈具体的合作细节。”

三天前,美国CBS电视台的电视新闻杂志节目60 Minutes,现场展示了黑客是怎样克隆声音来骗过同事,并成功窃取护照信息的。

小到在网购、兼职、刷单的小钱 ,大到冒充客服、投资理财人员等身份,获取银行卡账号密码直接转一大笔账...

当骗子拥有AI,诈骗成功率几乎到了100%。

无所不能之前,先要解决瞒天过海

AI的发展速度让外界始料未及,唱衰和警告的声音也越来越多。

五天前,英国首相苏纳克针对AI安全性发出的一则警告:英国将带头限制AI可能带来的危险。

马斯克更极端,甚至把AI比作未来人类文明最大的风险之一,威胁程度远高于车祸、飞机失事、毒品泛滥等,甚至比核武器都要危险得多。

这次AI诈骗全国爆发,更让人觉得AI一旦作恶,就会让人防不胜防。

但这件事,或许并不能完全甩锅给AI本身。

首先,对待新科技,大忽悠们总是比普通人具有更灵敏的嗅觉。

比如,在比特币出现之时,普通人当成谈资和新闻,可很快就有犯罪团伙将其用于洗钱。

洗钱者在交易所购买比特币,通过多次转账和分割,使交易链变得复杂,破坏交易记录的可跟踪性——最后,比特币转换为现金。

再比如,自封为联合国科学技术组织的执行主席的向主席,成功骗过了北大、清华、复旦等一众中国名校。

对外发行30亿比特币,差不多价值近200亿元人民币。

对互联网、区块链、元宇宙、AI,骗子的捞金KPI驱使着他们不断利用技术的黑暗面。

骗子的诈骗手段无所不用其极,开发利用新技术的速度也令人瞠目结舌。

结 语:

快播创始人王欣在法庭上发表的“技术无罪论”,但出狱后的王欣修正了他的观点:“技术是无罪的,但人会犯错”。

不得不承认,AI骗局对大部分普通老百姓来说,简直就是灾难。

过去我们一直说,“杀猪盘”的骗子不敢视频,冒充公检法的骗子不敢视频。

但如今,图片、声音、视频都可以造假。

在第七届世界智能大会上,中国科学院院士管晓宏认为,安全性如果得不到保证,AI 系统的应用将会受到极大的挑战。

OpenAI CEO在美国国会听证会上大声呼吁,世界应该要设立可以规范和监管AI 的独立机构。

乐观的想,AI诈骗门槛越来越低,不就意味着用AI反诈的成本也在降低?

如今,谁更了解AI,谁就决定了AI的“角色”。

不如让技术解决技术,用立法打败魔法。

朗玛
1 楼
骗子岛的技术升级了
S
Stoke-U
2 楼
有图有视频也没有真相了
r
rally
3 楼
换个习主习的脸给军区打电话,能不能攻进中南海。
g
greentee
4 楼
以前实时视频最多只是加个滤镜,瘦瘦脸啥的。 现在是直接换脸或者生成你想要的视频,连真人都可以完全不要。这个确实有点过了。
吃斋念佛大灰狼
5 楼
什么高科技,纯粹是给骗子提供工具。
g
greentee
6 楼
微信还支持声音登录,我看也得取消了。
l
lids
7 楼
别人会用AI骗钱,小编只会用AI打码