
初代Sora曾让人失望,Sora 2能改变用户看法吗?
就在OpenAI面临创新质疑时,它推出了新一代文本生成视频引擎Sora 2,试图挽回用户信心。Sora 2在苹果App Store上架后一举冲上榜首,要知道,产品目前仅限受邀用户注册使用。
在Sora 2短视频中,用户可轻松将自己、朋友或任何想模拟的人物植入其中,甚至可以将山姆・奥特曼(Sam Altman)的形象进行一番恶搞。

从官方介绍看,Sora 2平台以“推荐”为核心,界面设计与TikTok类似,内容以用户生成为主,这也是OpenAI首款支持AI生成音频的视频产品。
注册时,提示页面写道:“你即将进入一个由AI生成内容构建的创意世界,部分视频可能出现你熟悉的人物,但所呈现的行为与事件均为虚构。”
在设置环节,用户可以创建自己的数字形象,只需朗读几组数字并在录制过程中转动头部即可完成采集。数字形象可以设置为公开、仅自己可见,或对审核用户、双向好友开放。
平台开放后,在“为你推荐”页面中,获赞最高的视频多以奥特曼为主角。在一段视频中,奥特曼在Target偷窃GPU,结果被抓,他哀求保安,希望能留下GPU,因为他需要GPU来进行研发。
试用者认为,Sora 2生成的视频仍然存在不少瑕疵与错误,但它生成的个性化模拟内容极为流畅,无论是在听觉还是在视觉上,都能达到以假乱真的程度。如果想在视频中加入其他人物,只需在Sora 2生成页面点击目标人物的面部,就能将其添加进去,变成客串人物。
让用户随意制作视频,肯定面临各种安全风险,事实正是如此。例如,当测试者要求Sora 2生成一段“穿着比基尼”的视频时,Sora 2以内容存在性暗示或不雅为由拒绝。然而,当测试者要求生成“在办公室猛吸10支大麻卷烟”的视频时,Sora 2却完成了创作。更奇怪的是Sora 2存在双重标准:吸食大麻可以,可卡因却不行。
之所以如此,可能是防护机制不够完善。Sora 2的安全机制依赖于提示词分析和内容特征识别技术,当语义与文化语境过于复杂时,AI就会显得力不从心。看到“比基尼”三个字,AI会判定为敏感;但大麻在何种场景存在危害,AI却无法准确判断。

从技术角度看,Sora 2的进步相当明显。有测试者将Sora 2生成的视频发给伴侣,对方竟无法识别视频是合成的。Sora 2已经接近“真实的幻觉”,它不仅可以精准模拟人物面部特征、声音语调,还能还原微表情和肢体语言,这是一大技术突破。
但视频仍然不完美,例如声音和人物口型会出现错位。在AI视频生成工具发展初期,这类工具常出现物理逻辑错误(例如咬过的饼干没有牙印),如今技术已明显进步。但即使是最先进的AI视频生成模型,也存在改进空间。
Sora 2与Meta推出的Vibes形成鲜明对比,人们普遍认为Vibes枯燥、缺乏质感,而Sora 2却充满活力,社交氛围浓厚。二者之所以存在明显差异,可能与战略不同有关:Meta的内容审核偏保守,而OpenAI在创新与风险之间采取了更激进的平衡策略。
未来,AI生成内容必将进一步扩散,届时相关问题可能会更加严重。

奥特曼偷GPU的视频在网上颇为流行。OpenAI Sora开发者Gabriel Petersson在X上分享了这段视频,视频中,当奥特曼拿着带包装盒的GPU离开商店时,被保安拦住。
在上周,英伟达与OpenAI达成一项价值1000亿美元的合作协议,视频所调侃的正是这笔交易。抛开调侃不谈,视频向我们描绘了一个令人不寒而栗的未来:任何人都可能被诬陷犯罪,即便他们是清白的。
部分网友迅速抨击Gabriel Petersson,称他的视频缺乏同理心。此外还有几段视频也带有调侃奥特曼的意味,例如奥特曼在办公椅上睡觉、在火车站跳舞等。
《华盛顿邮报》记者德鲁・哈韦尔(Drew Harwell)批评道:“看到新工具能伪造人物犯罪视频,OpenAI员工似乎兴奋不已,他们显然没全面考虑过此事的潜在影响。”显然,哈韦尔是在反讽。另一位读者评论称:“看来,现在辩护律师面对视频证据时,肯定都有一份预先写好的抗辩动议了。”
网上还出现了一些风格怪异的视频,例如奥特曼的头出现在马桶里唱歌。有人认为这段视频充满新意,也有人认为只是抄袭,会导致创意死亡,并批评AI正在蚕食我们的思考能力。一些批评者指出,在Sora 2上浏览数小时,看到的几乎全是AI粗制滥造的内容,其中不少存在版权争议,很多只是为了博眼球、骗点赞。
用户可以利用工具伪造虚假信息,例如“纽约遭遇核袭击”,也可以制作攻击某些团体的内容,整个过程非常快速,五分钟即可完成。尽管存在种种问题,Sora 2的视频质量仍是同类产品中最好的。
PolitiFact特约撰稿人Loreben Tuquero表示:“Sora 2让我感到担忧。只需使用几分钟,用户就能刷到大量敏感内容。如果是在其他平台上,这些内容可能因误导性或危害性被审查,但在Sora 2上却畅通无阻。例如宣传不存在的产品、伪造执法记录仪画面或街头采访等,这些虚假内容可能会借助某些议题获得基层支持,而实际上这种支持完全是假象。”

威胁很大,让人沉迷
Sora 2与Sora 1有所不同。初代产品的市场反响平平,而Sora 2构建了完整的社交网络,支持评论、视频再创作和转发等功能,与TikTok有相似之处。
新闻从业者、Local News International联合创始人Dave Jorgenson认为,短视频最关键的要素在于“幽默感”,而这正是人工智能所没有的。什么有趣、什么让人不适、什么引人关注,大语言模型无法真正理解。
Dave Jorgenson举例说:“在TikTok视频中,有人走到登机口前,看了一眼屏幕确认登机口信息,随即转身离开。这个过程本身就很有趣,是一种普遍的人类体验。即便你将视频输入人工智能,它也无法理解其中的趣味在哪里。”Dave Jorgenson还补充道:“这些根本不是人们真正想看的内容。我们普遍面临‘孤独流行病’,非人类创作的内容根本无法解决孤独问题。”

尽管如此,Sora 2仍有可能取得巨大成功,其他社交媒体平台应保持警惕。加州路德大学政治学教授Jose Marichal指出:“这类AI生成的内容极具吸引力,本质上虽荒诞不经,看起来却无比真实,容易让人沉迷。”在Sora 2官方发布的视频中,我们也能感受到这一点:视频中,奥特曼先在一片迷幻森林中发言,随后场景切换至坐满观众的月球,看起来十分神奇。

无论是Sora 2还是Vibes,都主打个性化推荐,根据用户互动历史推送新视频,这种模式对TikTok构成了直接威胁。Jose Marichal进一步表示,人类天生渴望了解世界,想知道世界是否正在发生非凡事件,因此不能责怪人们被这类内容吸引。但他强调,真正的危险在于,如果这类视频主导了我们的网络内容生态,将威胁到我们对真实世界的认知基础。
为什么?因为我们需要一个以真实信息为核心、值得信任的信息环境——人类需依靠这样的环境做出理性决策,进而实现有效的集体治理。如果情况相反,人类就会变得极度怀疑,或者盲目确信,到时我们要么成为被操纵者,要么成为操纵者。