不,我们仍然不知道 Sora 模型是如何训练的。 图片来源:Costfoto / NurPhoto / Getty Images
周二,一群作为 OpenAI Sora 早期测试人员的艺术家泄露了对 AI 视频生成器的访问权限。但让我们弄清楚事实,这样故事就不会过于简单化。
此后,OpenAI 关闭了所有早期测试人员对 Sora 的访问。但在大约三个小时的时间里,公众可以亲自测试 Sora。根据一个陈述在 Hugging Face 上举办的演示中,艺术家们释放了对 Sora 的访问权限,以抗议“艺术清洗”,他们认为自己是被 OpenAI“引诱”进去的。
但这个故事除了“心怀不满的反人工智能艺术家泄露了模型”之外,还有更多细微差别。让我们深入探讨它是什么和不是什么。
它曾是泄露的凭证;它不是泄露的代码。
索拉的泄露听起来可能是许多人一直在等待的真相时刻。
当 OpenAI 宣布去年二月,关于人工智能视频生成器是什么的猜测甚嚣尘上。许多艺术家认为,Sora 的训练数据是在未经明确许可的情况下从 YouTube 和网络其他地方的视频中窃取的。 OpenAI 拒绝透露任何细节,但基于关于其其他型号,该公司维持根据版权法,公开数据属于合理使用。
可混搭光速
但这还是非常多的OpenAI 和其他公司面临着关于人工智能生成的内容是否足够原创以及是否与人类作品进行商业竞争的持续诉讼。
什么时候TechCrunch第一次报告泄漏事件时,每个人都渴望深入了解 Sora 的材质。但 Sora 泄露事件并未提供任何有关该模型或其训练数据的信息。它本质上是一个公开的基于网络的演示,很可能是通过共享 API 访问权限实现的。它似乎刚刚授予公众秘密后门访问 OpenAI 服务器上 Sora 功能的权限。但是,虽然世界上任何人都可以短暂生成 Sora 视频,但这种类型的泄露并没有向我们提供有关 Sora 模型本身的任何新信息。
推文可能已被删除
它曾是对 OpenAI 早期测试计划的抗议;它不是全面的反人工智能声明。
让 Sora 公开的艺术家们之所以这样做,是因为他们觉得 OpenAI 正在通过以错误测试和反馈的形式利用无偿劳动,“利用艺术家进行无偿研发和公关”。声明继续说道:“此外,每项输出都需要经过 OpenAI 团队的批准才能分享。这个抢先体验计划似乎较少涉及创意表达和批评,而更多涉及公关和广告。”
推文可能已被删除
该组织毫不拐弯抹角地用中指表情将 OpenAI 称为“企业人工智能霸主”。然而,该组织指出,他们“并不反对使用人工智能技术作为艺术工具”,否则他们不会被邀请作为早期测试人员参与。他们反对的是“这个艺术家计划是如何推出的,以及该工具在可能的公开发布之前是如何形成的。”
这是人工智能讨论中经常被忽视的细微差别。许多艺术家并不反对使用人工智能作为创意表达的工具。但反对利用创造性作品和自动化取代工作往往与反创新混为一谈。我们不知道《Sora》在发布前是如何“塑造”的,从而引发了反抗,但可以肯定地说,OpenAI 希望得到其艺术家测试人员的积极评价,因此出现了不和谐。
Cecily 是 Mashable 的科技记者,负责报道人工智能、苹果和新兴科技趋势。在哥伦比亚新闻学院获得硕士学位之前,她在 Unreasonable Group 和 B Lab 的初创公司和社会影响力企业工作了几年。在此之前,她与他人共同创办了一家针对南美、欧洲和亚洲新兴创业中心的创业咨询公司。你可以在 Twitter 上找到她:@cecily_mauran。