这是个争议极大的话题,很多人担心以后政府可以随意要求各种内容 bigjohn123456 发表于 2021-08-05 17:07
那些手机里有自家娃娃光屁股百岁照的都要小心了! mermaidyuu 发表于 2021-08-05 17:10
会涉及隐私问题吧 qingjiuliangcha 发表于 2021-08-05 17:02
对啊 苹果这是自掘坟墓啊,会有人介意这个事吧 然后换成别的牌子了 lisifessvg 发表于 2021-08-05 17:15
别人发朋友圈的怎么算? acadia2020 发表于 2021-08-05 18:32
感觉苹果只能扫描iCloud的照片,毕竟手机上扫描的效率不高,而且发热会被发现。。。可能大家会因此停用iCloud SeaTac007 发表于 2021-08-05 18:55
太邪恶了,怎么操作?难以想象的画面,所以苹果的相关工作人员先扫描用户的所有照片,然后一起看完所有用户的这些照片并筛选决定哪些是涉嫌未成年人的? TeresaD 发表于 2021-08-06 13:43
拉屎照 洗澡照 还有儿医给体检的照片 这算什么?! amberhoho 发表于 2021-08-05 18:19
同猜想 扫手机本地存储肯定会被告死 bingmi 发表于 2021-08-05 20:29
icloud上的早就在扫了,这次就是扫你们存在手机里的照片 bigjohn123456 发表于 2021-08-06 16:21
https://abcnews.go.com/Technology/wireStory/apple-scan-us-phones-images-child-abuse-79297400?cid=clicksource_4380645_1_heads_hero_live_headlines_hed
Apple is planning to scan U.S. iPhones for images of child sexual abuse, drawing applause from child protection groups but raising concern among some security researchers that the system could be misused by governments looking to surveil their citizens
对啊 苹果这是自掘坟墓啊,会有人介意这个事吧 然后换成别的牌子了
🤣🤣🤣
自己去看T & C
苹果只承诺不泄露你的个人数据
但是没说不会访问你的个人数据
肯定的
是的 有两面性
对。。。。
我觉得应该不会的
算一半?
开个玩笑
算了,改用signal
哈哈哈😂
谁把安卓的 T & C贴一下,看看有咩有可能避免这个。
我到不是很看好这个事情。。。
正想说
同猜想 扫手机本地存储肯定会被告死
肯定有算法,根据算法决定你手机里的图片是不是未成年,然后后台人工鉴定。
中国人跟欧美人比特别显年轻,30以下,好多人可能也能看起来小于18. 估计好多喜欢手机录视频的正常人会中招。
每种我都有😅
icloud上的早就在扫了,这次就是扫你们存在手机里的照片
有下文吗?