Sora之后,我们如何拯救真相
作者 李侠 李双
发表于 2024年3月

2月15日,美国人工智能研究公司OpenAI发布人工智能文生视频大模型Sora,该模型可深度模拟真实的物理世界,并生成包含多个角色及特定运动的复杂场景。目前,根据用户的文本提示,Sora可以创建长达60秒的逼真视频,这是近日互联网上最火爆的科技新闻。两年来,从ChatGPT3.5、GPT-4 Turbo到今日的Sora,可以说OpenAI公司正以惊人的迭代速度创造着人工智能的奇迹。

近几日,笔者仔细翻看网络上流传的Sora模型制作的短视频,高质量的画面与周围环境的匹配度无比“丝滑”,即便是笔者也拍不出这个效果。坦率地说,如果让我们去鉴别其真假,相信大多数人和笔者一样没有能力区分。

需要说明的是,从工业化时代到互联网时代的无数次技术变革所带来的真假难辨现象,与今天的Sora短视频在本质上是一样的,不同的是随着技术的迭代与升级,鉴别真假的难度越来越高。这就引发了一个具有普遍性的、令人焦虑的问题——Sora之后,我们如何拯救真相?

当真与假的界限崩塌之后

毫无疑问,以Sora模型为代表的人工智能是新一轮科技革命的前奏,随着应用场景的渐次绽出、新的盈利模式的涌现以及技术迭代的加速,人工智能带来的科技革命势不可挡。

其广阔的商业前景暂且不表,笔者更加关心的是其对社会观念与群体认知造成的直接冲击,因为Sora模型所构建的视频或将直接模糊真与假的界限。再加上日益临近的现实与虚拟界限的双向渗透,这一切或将导致整个社会的认知架构崩塌,随之而来的一系列急剧的连锁反应可能使人猝不及防。可以说,技术又一次让人类被动地站在转变的关口。为此,我们不妨先设想一下当真与假的界限崩塌之后会出现什么情况。

假设诈骗分子掌握了这项技术,利用专门收集的个人信息制作短视频,视频中的人、地点、时间全部是真实的,就连声音也可以通过技术处理,按照脚本设计。比如谎称受害人遭遇车祸急需打款救治,此时受害者家属如何鉴别真伪?相比之下,以往的电话诈骗十分低级。再比如政敌/仇家利用虚假的不良短视频陷害竞争者,公众如何辨之真假?在这种场景下,“眼见为实”的传统鉴别标准已经失灵。这类场景还可以列出很多,所有这些潜在危害的实质在于真假界限崩塌所带来的真相隐遁现象。

如果缺乏相应的强有力的监督机制,未来每个人都有可能成为新技术的受害者,这就是技术发展的吊诡之处:很多人没有享受到技术带来的红利,却无端承受了技术滥用带来的不便,比如各种数字技术对于老年人的不友好表现。

本文刊登于《科学大观园》2024年6期
龙源期刊网正版版权
更多文章来自
订阅