今天凌晨,OpenAI 视频生成工具 Sora 的内测版本遭到泄露,起因是部分早期测试人员(艺术家)对 OpenAI 产生了不满。艺术家用「最极端」的方式,换来了最短暂的普惠时刻。网友曝出的公开信显示,OpenAI 邀请了数百名艺术家参与 Bug 测试、反馈和实验工作。尽管这些艺术家无偿贡献了大量作品,但最终只有少数人的 Sora 作品能通过竞赛入选展映。网址:https://huggingface.co/spaces/PR-Puppets/PR-Puppet-Sora并且,相较于 OpenAI 借此获得的巨大公关和营销价值,他们给予艺术家的报酬微乎其微。他们感觉自己陷入了一场「艺术洗白」活动,每件作品在分享前都需经过 OpenAI 团队审批,忽视了他们的创造性表达和评论的诉求。艺术家想要的是创作自由,OpenAI 给的却是有条件的展示机会,甚至沦为了 Sora 的背书工具。愤怒之下,部分艺术家在全球最大的开源社区平台 Hugging Face 上泄露了 Sora 的 API,导致该工具短暂对外开放了数小时。我们发布此工具是为了让所有人都有机会体验约 300 位艺术家所获得的东西:免费的无限访问权限。我们并不反对将 AI 技术用作艺术工具(如果我们反对,就不会被邀请参与该计划)。但我们不赞同的是,这个艺术家计划的实施方式缺乏对艺术家的友好支持,并且工具的开发方向在可能的公开发布前更偏向于企业利益。我们希望通过与世界分享这些信息,OpenAI 能超越公关噱头,变得更加开放。从目前泄露的信息来看,Sora 支持生成 1080p、720p、360p 三种分辨率的视频,时长支持 5-10s。并且模型的代号为 Turbo,此前外媒 The Information 报道称,Sora 存在多个版本的模型,所以不排除 Sora 在正式发布时会有其他更高/低级的版本。事件发生后,OpenAI 迅速采取行动,关闭了所有邀请访问权限,并对其 Discord 频道实施了禁言措施。尽管开放时间仅有短短数小时,但已有用户疑似通过 Sora 生成了大量视频,让我们一起来看看这些作品。关注 AI 第一新媒体,率先获取 AI 前沿资讯和洞察
有网友用 Sora 重新创作了一版,呈现效果惊艳。不过细心观察可以发现,画面中某一帧出现了六根手指的瑕疵。在动漫风格的呈现上,Sora 依然展现出强劲实力。在冰天雪地的背景下,一只可爱的小熊守护着它的可口可乐。
从东京辗转到巴黎,画面中的人物穿着黄色雨衣站在人来人往的街头。小狗在雪地里飞扑,动态捕捉瞬间和动物行为上的精准度表现不错。机器人的两幅面孔出现了,上一秒要威胁人类,下一秒却不堪一击。恰巧的是,就在两个月前,据外媒 The Information 报道,OpenAI 正在训练新版本的 Sora,目标是生成更高质量、更长时间的视频剪辑。为此,他们需要收集数百万小时的高分辨率视频数据,涵盖各种风格和主题。而更早些的时候,Sora 曾被曝实际效果不及预期,生成视频速度慢,最初需 10 多分钟才能生成 1 分钟左右短片;使用困难,电影制作人需生成数百个剪辑才能找到可用的;风格难保持一致,物体和角色在不同剪辑中难以保持一致;就目前曝光的信息来看,当前 Sora 版本的效果的表现确实可圈可点,但在画质等各方面仍有提升空间。并且 Sora 同样生成视频依然是常被人们诟病的「哑剧」,距离被捧上神坛的「现实不存在了」似乎还遥遥无期。而就在刚刚,据外媒 Techcrunch 报道,OpenAI 对此次泄露事件做出了正式回应。OpenAI 的发言人指出,Sora 目前仍处于测试阶段,公司正在努力在创造力和安全性之间找到平衡,为未来的广泛应用做好准备。发言人还提到,参与 Alpha 测试的数百名艺术家为 Sora 的发展做出了重要贡献,他们的反馈帮助确定了新功能开发和安全措施的优先级。他们特别指出,这些艺术家的参与完全基于自愿原则,没有任何强制性的反馈或使用要求。OpenAI 表示,他们很高兴为这些艺术家提供免费访问,并将继续通过赠款、活动和其他计划支持他们。公司坚信 AI 可以成为创意工作的重要工具,并致力于确保 Sora 既实用又安全。此外,发言人还强调,艺术家在使用 Sora 时需要遵循「负责任使用」原则,并在开发期间严格保守机密信息。然而,对于什么是「负责任使用」以及哪些信息属于机密范畴,OpenAI 并未给出明确界定。一个吊诡的现实是,OpenAI 艺术家为了争取开放,不得不用泄密来对抗封闭。回顾这场风波,考虑到 OpenAI 过往的表现,我们甚至难以判断这次所谓的「艺术家泄露事件」是否是一次早有预谋的公关营销手段。如果这确实是一场始料未及的泄露,那么这意外收获的巨大曝光度,或许会让 OpenAI 重新考虑发布的日期。既然已经曝光,那要不借势而为,提前让 Sora 正式亮相。在线蹲,看看本周是否会迎来 Sora 的发布。我们获得了 Sora 的访问权限,并被承诺作为早期测试者、红队成员和创意合作伙伴参与。然而,我们认为这实际上是在被引诱参与所谓的「艺术洗白」,以向世界宣称 Sora 是一个对艺术家有用的工具。我们不是你们的:免费漏洞测试者、公关傀儡、训练数据或验证 Token。数百位艺术家通过漏洞测试、反馈和实验性作品,为一家市值 1500 亿美元的公司无偿提供劳动。而在这些无偿贡献中,只有少数艺术家通过竞赛被选中,展示用 Sora 创作的影片。这些艺术家的补偿,与 OpenAI 从中获得的大量公关和营销价值相比,微不足道。不要允许价值数十亿美元的品牌利用艺术家进行无偿研发和公关!此外,每个输出都需要经过 OpenAI 团队的批准才能分享。这一早期访问计划似乎更多是为了公关和广告,而非真正支持创意表达和批评。我们发布此工具是为了让所有人都有机会体验约 300 位艺术家所获得的东西:免费的无限访问权限。我们并不反对将 AI 技术用作艺术工具(如果我们反对,就不会被邀请参与该计划)。
但我们不赞同的是,这个艺术家计划的实施方式缺乏对艺术家的友好支持,并且工具的开发方向在可能的公开发布前更偏向于企业利益。我们希望通过与世界分享这些信息,OpenAI 能超越公关噱头,变得更加开放。开源视频生成工具可以让艺术家进行前沿实验,而无需服务于商业利益或成为企业的公关工具。我们也邀请艺术家使用自己的数据集训练自己的模型。然而,我们也意识到,并非每个人都拥有这种资源。因此,我们呼吁公平补偿艺术家的表达。