来源:新浪科技

  新浪科技讯 北京时间9月3日晚间消息,据报道,苹果公司上个月宣布了几项新的儿童安全功能,但其中一些存在争议,包括在iCloud Photos中扫描CSAM(儿童性虐待照片)内容。苹果今日表示,在面向公众推迟之前,将投入更多时间来完善这些功能。

  苹果在一份声明中称:“上个月,我们宣布了一些功能的计划,旨在帮助保护儿童免受‘利用通讯工具招募和剥削他们的掠夺者’的伤害,并限制儿童性虐待材料的传播。根据客户、倡导团体、研究人员和其他方面的反馈,我们决定在未来几个月花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。”

  按照原计划,苹果这些新的儿童安全功能将于今年晚些时候发布,作为iOS 15、iPadOS 15和macOS Monterey更新的一部分。如今,这些功能何时推出还是个未知数。至于如何进一步完善这些功能,苹果在今天的声明中也没有提供任何细节。

  上个月,在宣布新的CSAM检测技术后,苹果受到了隐私倡导者的强烈抵制和批评。即使苹果的内部员工也担心,政府可能会通过寻找CSAM以外的内容,迫使苹果使用这项技术进行审查。还有一些员工担心,苹果正在损害其业界领先的隐私声誉。

  但苹果却十分看好这一功能的前景,并表示,如果真正实施起来,要比谷歌Facebook等其他公司使用的技术更能保护隐私。此外,苹果还证实,事实上自2019年以来,苹果已经在扫描iCloud邮件中的儿童性虐待材料(CSAM),只不过尚未扫描iCloud照片或iCloud备份。

举报/反馈

新浪财经

4146万获赞 292.5万粉丝
新浪财经提供7×24小时的全球财经内容服务
新浪财经官方账号
关注
0
0
收藏
分享