网上冲浪,我们看到的内容是真的吗?有可能它们是AI生成的。
AI换脸制造图片视频、AI伪造图片传播谣言、AI合成视频实施诈骗……“有图有真相”的时代已经过去,如今在网络上看到的图片、音频,甚至视频,都可能是深度伪造技术做出来的。
移花接木。深度伪造能把一个人的脸、声音或动作无缝地“移植”到别人身上,让我们难以分辨真假。比如韩国近期出现“深度伪造性犯罪”事件,利用AI换脸把女性面部合成到不雅视频中,“只需上传熟人照片,5秒内就能生成裸体合成图。”
AI技术在影视剧行业已经广泛应用。电影《传说》运用AI技术,还原出一个27岁的年轻“成龙”;短剧《中国神话》的美术、分镜、视频、配音、配乐由AI全流程完成。如今,已经有公司开始尝试用AI换脸进行短剧制作,不需要进行重新拍摄,华人演员一键替换成外国演员,为一些短剧公司提供了低成本出海的新思路。
无中生有。从文生文、文生图,到如今的文生视频、图生视频、视频生成视频,人工智能生成技术更新迭代,似乎AI可“生”万物。今年上半年,文生视频大模型Sora现身,根据输入的文本,就能生成一段60秒的视频。还有我们在网上玩过的小测试,上传图片就能合成一段视频,画面里的人虽然看起来像你,但其实是完全假的。
假新闻操纵公众舆论。利用AI制造一篇假新闻有多简单?只要给出关键词,几秒钟内就能生成一篇“新闻体”假文章,如果再加上合成的假视频,假新闻就能以假乱真。AI造假门槛低、成本低、识别难,有些人便为获流量牟利铤而走险,合成故意纵火虚假视频、编造社会知名人士重病离世等网络谣言。
深度伪造还会出现在与政治相关的视频中,把政客的言论和行为“篡改”成了他们根本没说过或做过的事情,这很容易导致公众恐慌和误解,甚至造成社会动荡,对国家安全构成威胁。
假图像侵犯个人隐私。前不久,在警方侦破的一起案件中,犯罪嫌疑人使用AI去衣技术,深度伪造近七千张淫秽图片。只需一张日常生活照片,就可以完成一键“去衣”的效果,但它并不是真的去掉了图片上的衣服,而是进行图片重绘。
肉眼“找茬”,与AI一较高下。深度伪造的技术虽然厉害,但还是会有一些小瑕疵。AI生成的内容中,往往存在着一些现实中不存在的细节问题。比如AI不太会画手,图片的手部总有着不自然的痕迹。
随着相关法律法规的逐步完善,各方的权责逐渐明晰。我们可以看到,在社交媒体,伪造的图像或视频内容上标注着“疑似使用了AI生成技术”的标签,方便我们进行识别。但利用技术进行智能审核依然存在漏洞,如何提高审核效率和准确性,仍有待探索。