今年年初,AI生成的多张图片引起了全世界的惊叹,它把并不存在的事,甚至根本不存在的人画得像真实世界里发生过一样。
这组川普受到刑事指控后“被逮捕”的图,就是AI作画的“成名作”之一。
图片被发到网上时,很多人都信以为真,直到有人辟谣才恍然大悟。
此后,不断涌出的AI作图,让穿白色巴黎世家羽绒服的教宗,现实中根本不存在的海啸灾难救援,马斯克亲吻美女机器人等假图片层出不穷。
各国的无数种AI程序正在飞速开发,使用AI作图的门槛也越来越低,人们开始担忧AI会让民众更难判断新闻的真假。
然而,除此之外,还有更令人担忧的问题,已经发生在我们身边。
近期有网友爆料,在国内的视频网站上出现了大量涉嫌儿童色情的AI作图内容。
一些博主训练AI,把女童的脸放在各种有挑逗意味的动作上,让幼童向镜头掀裙子、穿“下衣失踪装”。
还有一些视频里,小女孩穿着女仆装被成年人掀裙子,另一些视频的标题则直接写着“湿身萝莉”,“萝莉洗澡”等令人不适的内容。
这些图片中的小女孩看上去都是不满10岁的女童,甚至有的图片主角的面部特征还是婴幼儿的状态。
正常人看这样的照片都会觉得有问题,但这些视频却在视频网站相当受欢迎,上传者大有人在,而且点击上万的就有不少。
点进这些视频的评论区和弹幕,到底是哪些人在制作和消费这些图片不言而喻。
一些人明知道视频的内容涉及儿童色情,明知道这是恋童癖行为,却一边求图包,一边开着“坐牢”、“死刑”的玩笑,完全没把自己的剥削行为当回事。
向下滑动查看
截图来自@赛博十块鉴定处
还有的视频上传者毫不顾忌地讲自己的作图心得,甚至有些人用这些小女孩的脸,做出有裸露和性元素的图片,在评论区分享给“粉丝”们。
竟然还有人为他们的恋童行为找理由,说这是他们对“纯真”的向往,真是令人作呕。
有些人还辩驳说,反正是AI画出来的,都是假的,又没有真人受到伤害,不需要对这样的行为上纲上线。然而事实并非如此。
众所周知AI学习作画的过程需要用户上传几张甚至几十张人物图片或照片,AI会通过这些图片中人物长相的共同特征,做出人物模型。
也就是说,这些被他们当作性幻想对象的小女孩,是有几个真人原型,甚至很可能就是根据现实中的某一个小女孩的照片捏造的。想想看,有人会希望自己幼小的女儿的脸被安在软色情图片里,成为恋童癖的意淫对象吗?
就算是套上了高科技的外壳,传播儿童色情制品也仍然是最恶劣的性犯罪之一。
今年,国内外许多媒体都发现,由于AI技术在管理尚且混乱的状况下飞速发展,已经导致更多的儿童和女性成为了新型犯罪的受害者。
最开始引起关注的是源源不断被P进色情图片和成人影片内的女明星们。
与上文制作儿童软色情图片的同一个AI模型分享网站上,有一个明星专栏,里面基本全是各国女明星的AI作图。
从日韩偶像到欧美当红演员,再到中国的女星网红的脸都被做成了可以随意使用的模型。
虽然该网站声明不允许分享者发布色情图片,然而在各种女星模型的评论区里,能轻易找到各种令人不适的照片。制作者通过AI制作了女明星身着暴露服装,摆出性感姿势的照片。
要知道这些能够发出来的照片只是冰山一角,他们可以利用AI生成更恶劣,更露骨的图片甚至视频。我们难以想象这些照片的用处是什么,可以确定的是,它们很多足以以假乱真。
如果图片流传到了社交网站上,一定会有很多人相信这些照片是真实的,从而给女性带来更大的麻烦,导致她们被谩骂和骚扰。
事实上这类内容在许多社交网站上已经有很多了,无论是制作平台还是传播平台,都对这种行为视而不见,甚至在评论区还有很多人点名要某某女星的AI换脸图。
而制作平台和传播平台的纵容,就是在传播一种错误的价值观,告诉人们“侵犯女性和儿童是轻而易举且没有成本的”。
《纽约时报》调查发现,欧美著名的AI绘图程序Midjourney中(即开头提到的川普被捕图生成程序),也含有大量女明星的换头成人图像,尽管Midjourney自称这个程序是“家庭友好型”,并声称它“13岁以下用户仅需家长指导即可观看”。
但这几年来,被它P进裸照、成人影片的女明星数不胜数,受害者包括“大表姐” 詹妮弗·劳伦斯、金·卡戴珊、艾玛·沃森和斯嘉丽·约翰逊等。
许多活跃于短视频和直播网站上的未成年,或刚刚成年的博主也屡屡遭到侵犯。
今年2月,直播平台Twitch的知名女主播QTCinderella等多名女性博主的脸被人恶意使用AI换脸P成了裸照。这些图片还被制作者煞有介事地发到了色情网站上,给这些女孩“造黄谣”。
这些博主靠出卖身体赚钱的谣言一下就传遍了全网,也传到了受害者的耳朵里。
28岁的QTCinderella发现网站上的所有人都在讨论她的裸体,讨论她在成人视频中的表现,尽管那些都是AI做出来的,这还是让她吓坏了。
她为此泪流满面,恳求大家不要在传播这些图片:
“我想尖叫,停下吧!求大家停下好吗,不要再传播这些图片了,不要再给这件事热度了,求你们了。
在不愿意的情况下被人看到'裸体'不是我作为主播应该承受的事!那些拿我的照片做文章的'记者们',我可真是谢谢你们这群傻x败类了!”
另一位未成年受害博主说:“我发现我被造谣了我永远都不会允许自己做的事,这太可怕了,简直像是被人强奸了一样。”
然而她们的发声却被很多看客骂“矫情”,“事儿多”,到现在仍然有部分换脸视频没有被删除。
影视明星中,斯嘉丽 ·约翰逊更是深受其害。她太常成为换头视频的受害者,数次动用各种法律手段阻止这种行为都没有什么成效。她还是会经常发现自己的脸被嫁接到各种糟糕的图片视频里。
斯嘉丽说自己对此非常失望,已经放弃通过法律再为自己维权。她说:“互联网是个吞噬我的巨大黑洞。”
要知道斯嘉丽是一名净资产达到1.65亿美元的一线巨星,是好莱坞身价最高的演员之一。
她有比普通人更好的法律资源,更强大的号召力和人脉,然而斯嘉丽仍因为不断涌出的换头视频而崩溃,拿它们毫无办法。
而当这些剥削发生在普通女性,甚至没有行为能力的儿童身上时,只会更加猖狂和难以控制。
Midjourney上已经出现了将女友、网红P进露骨图像中造黄谣、进行色情报复等行为。还有一些人盗用了儿童的照片,将他们做成儿童色情制品卖给恋童癖。
儿童受害者既有未成年童星,也有普通的孩子,后者的照片多是从孩子父母的社交账号上偷来的。所以专家也建议在AI作图规范化之前,慎重网上晒娃,以防被不法之徒盯上。
前不久一名西班牙人因使用AI制造换脸色情制品被捕,在他的家中甚至发现了女婴遭到性侵、虐待的恐怖视频。
令调查此案的警探们仅仅是阅览这些资料都需要接受心理辅导,更不要提被换脸的孩子的父母们如果知道此事,会有怎样的感受。
一些科技公司已经承诺,他们会训练AI更谨慎地作图,不要触碰一些红线,并且会在社交媒体上开发自动删除儿童色情相关图片的程序,但目前为止真正采取措施的公司还是少数。
同时,针对AI换头侵权的法律保障也不完善。2019年,美国纽约州民主党人Yvette Clarke 提出对换头视频的制作者进行追责的法案,这项法案石沉大海,至今仍没有音信。
而包括美国在内的一些国家,甚至没有将虚拟的儿童色情制品列入违法范围。也就是说,如果AI生成了未成年人的裸露图像,受害者甚至难以找到合适的法案为自己维权。
最后,专家提出了一些鉴别AI换脸图片和视频的方法,提高对换脸图像的鉴别能力,不去大肆传播这些内容加重对受害者的剥削,也是我们力所能及可以做到的。下面是一些换脸视频和图片常有的漏洞:
1、手部和眼球运动不自然的视频和图片可能是假的。AI现在还不太能完全复制人类的眼球运动轨迹,也不太会画人手;
2、人物表情和五官奇怪甚至有点扭曲的图片;
3、人物姿势别扭,身体比例看上去不协调;
4、头发看上去很假,过于光滑没有碎发;
5、牙齿的轮廓模糊,牙齿过于整齐;
6. 图像颜色奇怪,阴影位置奇怪,人像边缘模糊或错位。
AI绘画的进步的确给人类带来了很多惊喜和可能性,但技术进步不该成为剥削的工具,新的发展和科技也不能成为随意践踏他人,尤其是社会弱势群体的权利和尊严的理由。
希望没有下限的换头图片和视频早日得到治理,从网络上消失...
今年年初,AI生成的多张图片引起了全世界的惊叹,它把并不存在的事,甚至根本不存在的人画得像真实世界里发生过一样。
这组川普受到刑事指控后“被逮捕”的图,就是AI作画的“成名作”之一。
图片被发到网上时,很多人都信以为真,直到有人辟谣才恍然大悟。
此后,不断涌出的AI作图,让穿白色巴黎世家羽绒服的教宗,现实中根本不存在的海啸灾难救援,马斯克亲吻美女机器人等假图片层出不穷。
各国的无数种AI程序正在飞速开发,使用AI作图的门槛也越来越低,人们开始担忧AI会让民众更难判断新闻的真假。
然而,除此之外,还有更令人担忧的问题,已经发生在我们身边。
近期有网友爆料,在国内的视频网站上出现了大量涉嫌儿童色情的AI作图内容。
一些博主训练AI,把女童的脸放在各种有挑逗意味的动作上,让幼童向镜头掀裙子、穿“下衣失踪装”。
图源来自网络还有一些视频里,小女孩穿着女仆装被成年人掀裙子,另一些视频的标题则直接写着“湿身萝莉”,“萝莉洗澡”等令人不适的内容。
图源来自网络这些图片中的小女孩看上去都是不满10岁的女童,甚至有的图片主角的面部特征还是婴幼儿的状态。
正常人看这样的照片都会觉得有问题,但这些视频却在视频网站相当受欢迎,上传者大有人在,而且点击上万的就有不少。
有人用真实的中学校服做软色情图片点进这些视频的评论区和弹幕,到底是哪些人在制作和消费这些图片不言而喻。
一些人明知道视频的内容涉及儿童色情,明知道这是恋童癖行为,却一边求图包,一边开着“坐牢”、“死刑”的玩笑,完全没把自己的剥削行为当回事。
向下滑动查看
截图来自@赛博十块鉴定处
还有的视频上传者毫不顾忌地讲自己的作图心得,甚至有些人用这些小女孩的脸,做出有裸露和性元素的图片,在评论区分享给“粉丝”们。
竟然还有人为他们的恋童行为找理由,说这是他们对“纯真”的向往,真是令人作呕。
有些人还辩驳说,反正是AI画出来的,都是假的,又没有真人受到伤害,不需要对这样的行为上纲上线。然而事实并非如此。
众所周知AI学习作画的过程需要用户上传几张甚至几十张人物图片或照片,AI会通过这些图片中人物长相的共同特征,做出人物模型。
也就是说,这些被他们当作性幻想对象的小女孩,是有几个真人原型,甚至很可能就是根据现实中的某一个小女孩的照片捏造的。想想看,有人会希望自己幼小的女儿的脸被安在软色情图片里,成为恋童癖的意淫对象吗?
就算是套上了高科技的外壳,传播儿童色情制品也仍然是最恶劣的性犯罪之一。
目前这些视频已被删除,大部分相关账号被查封今年,国内外许多媒体都发现,由于AI技术在管理尚且混乱的状况下飞速发展,已经导致更多的儿童和女性成为了新型犯罪的受害者。
最开始引起关注的是源源不断被P进色情图片和成人影片内的女明星们。
与上文制作儿童软色情图片的同一个AI模型分享网站上,有一个明星专栏,里面基本全是各国女明星的AI作图。
从日韩偶像到欧美当红演员,再到中国的女星网红的脸都被做成了可以随意使用的模型。
虽然该网站声明不允许分享者发布色情图片,然而在各种女星模型的评论区里,能轻易找到各种令人不适的照片。制作者通过AI制作了女明星身着暴露服装,摆出性感姿势的照片。
要知道这些能够发出来的照片只是冰山一角,他们可以利用AI生成更恶劣,更露骨的图片甚至视频。我们难以想象这些照片的用处是什么,可以确定的是,它们很多足以以假乱真。
如果图片流传到了社交网站上,一定会有很多人相信这些照片是真实的,从而给女性带来更大的麻烦,导致她们被谩骂和骚扰。
事实上这类内容在许多社交网站上已经有很多了,无论是制作平台还是传播平台,都对这种行为视而不见,甚至在评论区还有很多人点名要某某女星的AI换脸图。
而制作平台和传播平台的纵容,就是在传播一种错误的价值观,告诉人们“侵犯女性和儿童是轻而易举且没有成本的”。
《纽约时报》调查发现,欧美著名的AI绘图程序Midjourney中(即开头提到的川普被捕图生成程序),也含有大量女明星的换头成人图像,尽管Midjourney自称这个程序是“家庭友好型”,并声称它“13岁以下用户仅需家长指导即可观看”。
但这几年来,被它P进裸照、成人影片的女明星数不胜数,受害者包括“大表姐” 詹妮弗·劳伦斯、金·卡戴珊、艾玛·沃森和斯嘉丽·约翰逊等。
许多活跃于短视频和直播网站上的未成年,或刚刚成年的博主也屡屡遭到侵犯。
今年2月,直播平台Twitch的知名女主播QTCinderella等多名女性博主的脸被人恶意使用AI换脸P成了裸照。这些图片还被制作者煞有介事地发到了色情网站上,给这些女孩“造黄谣”。
许多女博主是在这名博主的道歉视频中才知道自己被换头的这些博主靠出卖身体赚钱的谣言一下就传遍了全网,也传到了受害者的耳朵里。
28岁的QTCinderella发现网站上的所有人都在讨论她的裸体,讨论她在成人视频中的表现,尽管那些都是AI做出来的,这还是让她吓坏了。
她为此泪流满面,恳求大家不要在传播这些图片:
“我想尖叫,停下吧!求大家停下好吗,不要再传播这些图片了,不要再给这件事热度了,求你们了。
在不愿意的情况下被人看到'裸体'不是我作为主播应该承受的事!那些拿我的照片做文章的'记者们',我可真是谢谢你们这群傻x败类了!”
另一位未成年受害博主说:“我发现我被造谣了我永远都不会允许自己做的事,这太可怕了,简直像是被人强奸了一样。”
然而她们的发声却被很多看客骂“矫情”,“事儿多”,到现在仍然有部分换脸视频没有被删除。
影视明星中,斯嘉丽 ·约翰逊更是深受其害。她太常成为换头视频的受害者,数次动用各种法律手段阻止这种行为都没有什么成效。她还是会经常发现自己的脸被嫁接到各种糟糕的图片视频里。
斯嘉丽说自己对此非常失望,已经放弃通过法律再为自己维权。她说:“互联网是个吞噬我的巨大黑洞。”
要知道斯嘉丽是一名净资产达到1.65亿美元的一线巨星,是好莱坞身价最高的演员之一。
她有比普通人更好的法律资源,更强大的号召力和人脉,然而斯嘉丽仍因为不断涌出的换头视频而崩溃,拿它们毫无办法。
之前被爆出的专门换头裸照的AI而当这些剥削发生在普通女性,甚至没有行为能力的儿童身上时,只会更加猖狂和难以控制。
Midjourney上已经出现了将女友、网红P进露骨图像中造黄谣、进行色情报复等行为。还有一些人盗用了儿童的照片,将他们做成儿童色情制品卖给恋童癖。
儿童受害者既有未成年童星,也有普通的孩子,后者的照片多是从孩子父母的社交账号上偷来的。所以专家也建议在AI作图规范化之前,慎重网上晒娃,以防被不法之徒盯上。
前不久一名西班牙人因使用AI制造换脸色情制品被捕,在他的家中甚至发现了女婴遭到性侵、虐待的恐怖视频。
令调查此案的警探们仅仅是阅览这些资料都需要接受心理辅导,更不要提被换脸的孩子的父母们如果知道此事,会有怎样的感受。
一些科技公司已经承诺,他们会训练AI更谨慎地作图,不要触碰一些红线,并且会在社交媒体上开发自动删除儿童色情相关图片的程序,但目前为止真正采取措施的公司还是少数。
同时,针对AI换头侵权的法律保障也不完善。2019年,美国纽约州民主党人Yvette Clarke 提出对换头视频的制作者进行追责的法案,这项法案石沉大海,至今仍没有音信。
而包括美国在内的一些国家,甚至没有将虚拟的儿童色情制品列入违法范围。也就是说,如果AI生成了未成年人的裸露图像,受害者甚至难以找到合适的法案为自己维权。
最后,专家提出了一些鉴别AI换脸图片和视频的方法,提高对换脸图像的鉴别能力,不去大肆传播这些内容加重对受害者的剥削,也是我们力所能及可以做到的。下面是一些换脸视频和图片常有的漏洞:
1、手部和眼球运动不自然的视频和图片可能是假的。AI现在还不太能完全复制人类的眼球运动轨迹,也不太会画人手;
2、人物表情和五官奇怪甚至有点扭曲的图片;
3、人物姿势别扭,身体比例看上去不协调;
4、头发看上去很假,过于光滑没有碎发;
5、牙齿的轮廓模糊,牙齿过于整齐;
6. 图像颜色奇怪,阴影位置奇怪,人像边缘模糊或错位。
AI绘画的进步的确给人类带来了很多惊喜和可能性,但技术进步不该成为剥削的工具,新的发展和科技也不能成为随意践踏他人,尤其是社会弱势群体的权利和尊严的理由。
希望没有下限的换头图片和视频早日得到治理,从网络上消失...