OpenAI视频生成模型Sora遭泄露:抗议组织指责其“艺术洗白”

   发布时间:2024-11-27 09:08 作者:钟景轩

近日,科技界发生了一起引人注目的数据泄露事件,涉及人工智能巨头OpenAI及其视频生成模型Sora。据科技媒体TechCrunch报道,一个名为“Sora PR Puppets”的组织,在Hugging Face平台上公开了Sora模型的访问权限,以此抗议OpenAI的所谓“欺骗行为”以及对艺术的“洗白”策略。

“Sora PR Puppets”组织在Hugging Face平台上发布了一个项目,该项目直接链接到了OpenAI尚未对外公开的Sora API。利用获取的认证tokens,该组织创建了一个前端界面,允许任何用户通过输入简短的文本描述,生成最高可达1080P分辨率、时长10秒的视频。这些视频均带有OpenAI的标志性水印,部分用户已在多个平台上分享和上传了这些生成的视频。

据该组织声称,OpenAI向Sora的早期测试者,包括漏洞测试和创意合作伙伴,施加了压力,要求他们积极宣传Sora的正面形象,但并未给予相应的报酬。该组织指出,数百名艺术家为OpenAI提供了无偿的BUG测试、反馈和实验工作,但这家估值高达1500亿美元的公司却拒绝支付报酬。因此,“Sora PR Puppets”组织认为,Sora的早期访问计划更像是一场公关宣传活动,而非真正的创意合作,且不接受任何负面评价。

面对这一指控,OpenAI发言人回应称,Sora目前仍处于“研究预览”阶段,公司正在努力平衡创造力和更广泛使用的安全措施。发言人强调,数百名艺术家参与了Sora的alpha测试,他们的反馈对确定新功能和安全措施的优先级起到了重要作用。OpenAI表示,将继续通过赠款、活动和其他项目来支持这些艺术家。

然而,这场风波并未就此平息。据报道,在美国东部时间11月26日12点01分,即北京时间11月27日凌晨1点01分,该前端网站停止了工作。推测可能是OpenAI或Hugging Face撤销了访问权限。

此次事件不仅引发了公众对OpenAI数据安全和隐私保护的担忧,也再次将科技公司与艺术家之间的合作关系置于聚光灯下。如何在追求技术创新的同时,保障艺术家的权益和创意表达,成为了一个亟待解决的问题。

 
 
更多>同类内容
全站最新
热门内容
本栏最新