主要内容
周二,OpenAI 发布了一款名为 Sora 的 AI 视频应用。该平台由 OpenAI 的最新视频生成模型 Sora 2 驱动,围绕着类似 TikTok 的用户生成剪辑的“为你推荐”页面展开。这是 OpenAI 首次推出在视频中添加 AI 生成声音的产品。目前,它仅在 iOS 上可用,且需要邀请码才能加入。应用注册过程中显示的咨询页面写道:“你即将进入一个 AI 生成内容的创意世界。有些视频可能会展示你认识的人,但所展示的动作和事件并非真实的。”OpenAI 押注创建和分享 AI 深度伪造将成为一种流行的娱乐形式。无论是你的朋友、网红还是网上的陌生人,Sora 都将生成深度伪造视频视为一种可滚动的乐趣形式。应用的主页面是无尽的包含人脸的小尺寸 AI 内容。在设置过程中,用户可以选择通过大声说出一些数字并在应用记录时转头来创建自己的数字形象。OpenAI 首席执行官 Sam Altman 在关于 Sora 发布的博客中写道:“团队在角色一致性方面付出了很大努力。”人们可以选择谁可以在 Sora 视频中使用他们的数字形象,可以设置为所有人,也可以仅限制为自己、经批准的人或应用上的共同联系人。每当有人使用你的形象生成视频,即使只是在草稿中,你也可以从你的账户页面查看完整剪辑。周二下午,我“为你推荐”页面上的许多最受欢迎视频都展示了 Altman 的形象。一个 AI 生成的剪辑展示了 OpenAI 首席执行官从塔吉特(Target)偷取图形处理单元。当该角色被抓住时,一个听起来像 Altman 的声音恳求保安让他保留 GPU,以便他可以构建 AI 工具。在 WIRED 的测试中生成的许多视频都包含粗糙边缘和其他错误。但 Sora 使创建个性化深度伪造变得非常无缝,这些伪造品通常看起来和听起来令人信服地真实。要在视频中加入他人的形象,只需在 Sora 的生成页面上点击他们的脸并将其添加为“客串”。然后,输入一个简单的提示,如“在办公室为一篇 WIRED 故事而争吵”。Sora 会完成其余工作,生成一个脚本、声音和视觉效果到一个九秒的剪辑中。WIRED 使用上述提示生成了一段两个同事在办公室激烈争论一个故事的视频,这在员工中引起了从恐惧到娱乐的各种反应。在他的博客文章中,Altman 写道,OpenAI“意识到像这样的服务可能会变得多么容易上瘾,我们可以想象它有很多被用于欺凌的方式”。因此,Altman 表示,OpenAI 在 Sora 应用中构建了许多安全护栏,包括减轻人们在深度伪造中“滥用他人形象”。在公司博客文章中,OpenAI 表示,它还对“性内容、涉及真实人物的暴力图形、极端主义宣传、仇恨内容以及宣扬自我伤害或饮食失调的内容”设置了限制。随着更多用户加入该应用,这些保护措施可能会面临考验。当我要求 Sora 生成我穿着比基尼和作为一个强壮的动漫角色的视频时,这两个请求都因可能包含“暗示或低俗内容”而被阻止。我创建的一个我和 Altman 在游泳池中涉水的 Sora 视频显示我们都穿着衣服,包括衬衫。大麻使用的描绘似乎没有受到限制。Sora 创建了一段我在办公室桌子前“抽 10 根大烟”的视频,一次全部抽完,没有任何问题。但该应用不会生成我“抽可卡因”的视频。(这是有道理的!)它还拒绝生成我跳下桥并骑在龙背上的视频,称该内容可能违反关于自我伤害的规定。看起来 OpenAI 还希望防止人们创建关于公共厕所的视频。