集体诉讼称苹果允许儿童性虐待材料激增

再次面临着数十亿美元的诉讼,数千名受害者站出来反对该公司涉嫌共谋传播儿童性虐待材料 (CSAM)。

在 12 月 7 日提起的诉讼中,这家科技巨头被指控违反强制性报告义务— 要求美国科技公司向国家失踪与受虐儿童中心 (NCMEC) 报告 CSAM 实例 — 并导致 CSAM 激增。诉讼称,由于未能建立承诺的安全机制,苹果向特定类别的客户(CSAM 受害者)出售了“有缺陷的产品”。

一些原告辩称,他们在童年很久之后就不断因内容传播而再次受到创伤,因为苹果公司选择专注于防止新的 CSAM 案件和诱骗年轻用户。

“数以千计勇敢的幸存者挺身而出,要求地球上最成功的科技公司之一承担责任。苹果不仅拒绝帮助这些受害者,而且还宣传称,它不会在其平台上检测儿童性虐待内容,或者律师玛格丽特·E·马比 (Margaret E. Mabie) 写道:“这些设备因此极大地增加了对这些受害者造成的持续伤害。”

可混搭光速

作为其更广泛的隐私承诺的一部分,该公司保留了对其 iCloud 产品和用户库的严格控制。 2022 年,苹果取消了计划一个有争议的工具,可以自动扫描并标记 iCloud 照片库中是否存在滥用或有问题的材料,包括 CSAM。该公司选择不再引入扫描功能,是出于对用户隐私和大型科技公司大规模监控的日益担忧,苹果的选择得到了世界各地隐私团体和活动人士的广泛支持。但新诉讼称,这家科技巨头只是利用这种网络安全防御来规避其报告职责。

苹果发言人 Fred Sainz 在回应诉讼时写道:“儿童性虐待内容令人憎恶,我们致力于打击掠夺者将儿童置于危险之中的方式。” “我们正在紧急积极地进行创新,以打击这些犯罪行为,同时又不损害所有用户的安全和隐私。例如,通信安全等功能会在儿童收到或试图发送包含裸露内容的内容时发出警告,以帮助打破胁迫链我们仍然致力于建立保护措施,帮助防止 CSAM 的传播。”

科技公司有难以控制网上辱骂性材料的传播。英国监管机构 2024 年报告国家防止虐待儿童协会 (NSPCC)指责苹果公司该公司在 2023 年仅向 NCMEC 提交了 267 份全球 CSAM 报告。竞争对手 Google 和 Meta 分别报告了超过 100 万和 3000 万个案例。与此同时,人们对数字化或合成 CSAM 的兴起日益担忧,这使得监管环境变得更加复杂,使得科技巨头和社交媒体平台竞相迎头赶上。

如果该诉讼提交陪审团并得到陪审团的支持,苹果可能面临数十亿美元的诉讼,但这一决定对整个行业和整个隐私保护工作产生了更广泛的影响。法院可能会决定迫使苹果恢复其照片库扫描工具或实施其他行业功能来删除滥用内容,为政府监控铺平更直接的道路,并再次打击保护。