苹果砍掉的防色情功能,居然真翻车了?
前阵子,因为百度网盘“被曝人工审核用户照片”的事儿,又引起了网友对个人隐私问题的关注。
毕竟很多人的“学习资料”都放在这里,被别人“学习”可是不太行。
最终,百度网盘对此事件发布严正声明称“不存在所谓的照片人工审核,关于百度网盘照片真人审核的内容是谣言”。
这个事儿到这虽然算告一段落了,但关于个人隐私的担忧却并没有减少。
其实,以个人隐私安全为重的苹果也在这方面翻过车。
2021 年 8 月,苹果宣布在 2021 年晚些时间开始在 iCloud Photos 中扫描CSAM(儿童性虐待照片)内容。
理由是扩大对儿童的保护。
这消息一出,可谓是一石激起千层浪,立即引起了许多果粉的反对。
大家认为这是变相获取用户隐私,如果同意这项举措,就意味着苹果公司可以直接扫描用户的所有照片内容。
简直是打着保护儿童的旗号,对用户实施监控。
一开始头铁的苹果表示,自己使用的是本地哈希算法,不会直接查看用户相册,不存在泄露隐私的情况。
但网友对此说法仍然不买账,这个头一开,以后万一以其他名头要其他权限怎么办?
最终,苹果头不再铁,只能无限期推迟这个计划。已经过去一年了,苹果仍然没有重新提起这个计划的打算。
妹想到啊,头这么铁的苹果都放弃的计划,居然有别的公司扛起了大旗。
没错,它就是谷歌,而且这个计划已经开始很久了。
早在 2018 年,谷歌官方就发布了一款免费 AI 工具,主要就是用于识别儿童性虐待内容。
这个工具一经推出,审核人员效率可是提高不老少。
有数据显示,截至去年,谷歌提交了超过 62 万份涉嫌虐待儿童的报告,禁用了超过 27 万名用户的账户。
它确实为控制儿童犯罪,提供了不少帮助。
但也确实造成了一些比较乌龙的麻烦。
前段时间,据《纽约时报》报道,一位旧金山的父亲,用手机拍摄自己孩子腹股沟感染的照片,发给医生进行线上问诊。
毕竟现在国外疫情也挺严重的,线上问诊更安全些。
离谱的事发生了,谷歌把这些照片标记为儿童性虐待内容,并把他的谷歌账号封禁了
不仅如此,谷歌还生成一份报告,将其提供给警方。
真是人在家中坐,锅从天上来,就给孩子看个病,给自己看成犯罪嫌疑人了,求这个爸爸的心理阴影面积。
还有更离谱的,他被谷歌全网封杀,失去了对自己电子邮箱、联系人、照片的所有访问权限。
个人生活可以说受到了很大的影响。
虽然最后被警方认定无罪,但他的谷歌账号仍然找不回来。
一方面,自动备份可以防止重要数据丢失。但最近发生的种种事件,又不禁让我们担心隐私信息泄露的问题。
嗐,喵喵还是整个硬盘吧,自动备份还是有风险
初代 iPhone 价值 24 万?早知道不换盆了… 格局打开了… |
全面屏、指纹解锁,这 iPhone 15 也太秀了吧! 这才是梦中情机啊… |
iPhone 14 Pro 机模曝光,这配色着实辣眼睛… 这配色认真的? |
看来 AI 算法
吹嘘的万无一失
失一次就够普通人崩溃的
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
随时掌握互联网精彩
- 1 习主席今年首次出访牵动世界目光 4901292
- 2 梅大高速塌方 官方发布安全提示 4994495
- 3 五一淄博烧烤“梅开二度” 4827714
- 4 文旅深度融合优质活动频繁“上新” 4701090
- 5 狐狸和狗一起生活 一开口狗里狗气 4661324
- 6 5000一晚酒店薅35瓶洗发水能回本吗 4505145
- 7 广东高速塌方遇难人数升至36人 4489999
- 8 大唐不夜城已被六国游客攻陷 4321297
- 9 72岁老人喜得贵子系谣言 4264009
- 10 这个五一 婚礼人“赚”不动了? 4120185