namakateaparty 发表于 2025-01-07 21:54 小心骗子录音你的声音,然后用AI合成去骗你的家人和朋友,最好就是陌生电话一律不接。昨天看了一个反诈骗的小短片,deep fake现在已经可以把人脸和声音拟合的很真实,就是你家人和朋友看视频的时候,如果不仔细观察可能会认为正在跟你真人通话,有些小技巧比如要求对方摸一下鼻子,或者揉眼睛,这种动作AI没有训练过,会让脸的边缘出现撕裂感。但是这种方法也并不保险,因为骗子会跟进提高吧这些动作加进去,下次就看不出来了。专家的建议是要跟家人约定一个secret question,只有你们知道答案,在不确定的时候要用这个密码来确认
金银岛 发表于 2025-01-07 21:55 去年从缅北被遣送回国五万余名电诈分子,光明学昌一个犯罪团伙的审理就用了1110本办案卷宗,近1.5万份书证、物证等证据材料,超过50TB的电子数据。您就别给公安民警增加工作量了吧。
另外,前阵子都没有什么诈骗电话了,但是最近又多了起来,估计就是大家说的,缅北被端了,犯罪分子跑到缅东去重新开始了。
这个我看过电视剧,里面有讲。我朋友遇到过真实的这种事件,他的一个朋友就被骗裸聊了,裸聊的估计都是个男的,合成的ai,让他也脱就脱了,最后被骗了好多钱…
哎,我天真了…