真假难辨:AI虚拟内容泛滥

来源:科技世界http://finance.twwtn.com/roll/202407/65285.html

在科技日新月异的今天,每一项技术的飞跃都可能在人类社会的织锦上添上浓墨重彩的一笔。

427日,清华大学教授朱军在中关村论坛未来人工智能先锋论坛上发布的中国首个长时长、高一致性、高动态性视频大模型——Vidu

这是自215日,“世界模拟器”Sora发布以来,运行效果与之最接近的一个视频大模型。这样的视频大模型,毫无疑问代表了人工智能技术的最前沿。

AI在视频内容创造上展现出了惊人能力,然而这些技术的发展也可能带来巨大的潜在危害。

人类会创始人胡家奇提醒道,人工智能的非理性发展可能对人类社会造成不可逆转的影响。科技的快速进步,虽然在短期内可能为人类社会带来了便利和效率的提升,但长期来看,AI的野蛮发展有可能将人类甩到后面,导致我们无法控制和应对。

首先,SoraVidu都能生成极为逼真的视频内容,这在很多方面是一个技术突破,但同时也可能对社会造成深远的影响。通过使用这些模型,制造虚假的新闻或伪造的历史事件视频会变得非常容易。

例如,Sora的技术可以生成涉及特定运动和多个角色的复杂场景,而Vidu则能在视频中实现复杂的镜头切换和特有的文化元素呈现,这会使得生成的内容变得更具“真实的”迷惑性。这种能力如果被恶意利用,可能会破坏信息的真实性,误导公众。

ViduSora这类模型的另一个潜在危害是侵犯个人隐私。由于这些模型可以生成任何人在任何场景下的逼真视频,不法分子可能利用这项技术来制造假象,如在不当情境中展示公众人物或普通民众,从而损害个人的名誉和隐私。

从所有权的角度考虑,SoraVidu的存在提出了关于AI技术控制权的问题。谁应该拥有和控制这些强大工具的使用权?不透明的技术管理和缺乏适当的监管机制可能导致这些技术的滥用,对社会造成不可预测的后果。

而今,信息真实性面临空前考验。不断发展的视频大模型能够根据指令生成逼真度极高的视频内容,这意味着虚假信息的制造和传播将变得更加容易。在后真相时代,这类技术的滥用会使得公众信任度进一步下滑,社会分裂的进一步加剧,甚至为政治操纵和舆论误导打开方便之门。