更多用户意味着更多问题,社交媒体神童 Bluesky 也不例外。周一,蓝天宣布新的节制努力在其令人难以置信的增长中解决有关用户内容的增长问题。
Bluesky 在 Platformer 的独家报道中解释说,它将把其内容审核团队(目前有 25 名合同工)人数增加四倍,以遏制令人担忧的儿童性虐待材料 (CSAM) 和其他侵犯网站社区的内容的涌入指导方针——迄今为止已通过现有审核系统并需要人工监督的案例。
该公司写道:“新用户的激增带来了信任和安全团队必须应对的棘手、令人不安和完全奇怪的边缘案例数量的增加。” “2023 年全年,Bluesky 在网络上发布了两例 CSAM 确诊病例。仅周一就有 8 例确诊病例。”
可混搭光速
总的来说,该平台正在导航用户报告激增由一家非常小的公司处理。 11 月 15 日,该平台发布消息称,它每小时收到 3,000 份报告,而 2023 年全年仅收到 360,000 份报告。“我们正在对这个庞大的队列进行分类,以便快速删除 CSAM 等最有害的内容。随着用户涌入,我们还看到垃圾邮件、诈骗和恶搞活动有所增加——您可能自己也看到了其中一些,”该平台当时写道。 “感谢您的耐心等待,我们将把我们的审核团队调到最大容量,并招募新的团队成员来支持这一负载。”
Bluesky 对其人力的支持补充了通常由人工智能驱动的自动内容审核的复杂且令人困惑的世界。在后续行动中线Bluesky 指出,上周为解决包括 CSAM 在内的高严重性政策领域中的有害内容而制定的“短期”审核政策存在问题。 Bluesky 解释说,为了响应自动标记以及信任和安全团队的努力,一些帐户被暂时停用。该平台正在恢复那些认为自己被不公正删除的帐户。
Bluesky 的内部内容审核系统还与第三方工具配合使用,例如由儿童安全 n 创建的报告工具 Safer。。 Bluesky 被称为用户驱动的、去中心化的社交网络,它优先考虑“第三方提供商的生态系统”,并避开“集中的审核机构”,以支持用户的可定制性。