■钱振兴
西藏定日县发生的6.8级地震牵动着亿万网友的心,很多人通过社交媒体平台上发布的信息了解灾区现状。其中广为流传的一张图片让人看了揪心不已,画面中是一个灰头土脸的小男孩,被压在倒塌的建筑下动弹不得。但很快,这张图片被证实是利用人工智能生成内容技术(AIGC)伪造的虚假图片。
图片来源于某自媒体博主去年11月发布的短视频,虽然博主在发布时声明了内容由人工智能(AI)生成,但此次在网络上大规模流传的截图,并未指出内容出自AI。
信以为真甚至为小男孩伤心落泪的网友纷纷表示,“虚假图片必须治理”“AIGC让社交媒体本就真假难辨的信息环境‘雪上加霜’”。在AIGC迅猛发展的当下,如何应对虚假图片的危机确实值得深入思考和探索。
“去伪”:用AI破解AI
假消息并不是AI时代所特有的,十几年前持续了大半年时间的华南虎事件便是典型案例。从2007年末直到2008年中,通过技术手段和公众的努力,所谓“野生华南虎”照片才最终被确认是伪造的。
然而,如果说以往的假新闻更多是基于实物的移花接木,ChatGPT、Sora等大模型的出现和快速发展,则使得凭空捏造虚假信息成为了可能,社交媒体则进一步加剧了“以讹传讹”的现象。
虽然AI生成的内容越发逼真,但它也可以为虚假信息的检测提供新路径。过去,我们一般通过频率、频谱等的变化,检测图片、音频等的真伪。现在,则可以利用深度学习网络进行判断,让AI学习多媒体信息中的异常情况进而证伪,比如图像篡改定位、美颜程度检测、音频真伪检测、证件防伪、虚假新闻检测等。目前证伪在技术上已经取得了一定进展。
尽管AIGC图像整体非常逼真,但在细节上仍存在一些问题,比如,上文提到的图片中小男孩一只手有六根手指,另外,还包括物体的形状过于理想化、背景过于平滑、颜色分布不自然等。
如果把生成的图片进一步放大,提取其中的信息进行分析,则可以发现,AIGC图像的纹理同真实世界图像的纹理也存在一定区别。利用图像中复杂纹理和简单纹理区域像素间相关性的对比,可检测图片是否为AI生成。
但是,目前AI检测虚假信息仍存在不少问题。例如,伪造的形式和手段呈现多样化,很难建立通用的AI检测模型防范未知的造假;技术发展不够成熟,大模型检测的结果难以令人信服;数据量有限导致可泛化性较差,即某个模型仅能检测某种类型的虚假信息,而无法通用;时效性较差,当前造假的手段越来越多样化,由已有数据训练的模型无法应对未来的挑战。
“求真”:规范内容标识
如上文所言,用技术“去伪”存在一定的局限性,为避免AI生成的信息与真实的信息混淆,无论是研发AIGC的企业,还是各社交媒体平台,都在尝试采取其他措施来“求真”。“内容标识”是目前国际上较为通用的做法。
2023年7月,美国7家AI企业与政府签署协议,承诺采取自愿监管措施管理AI技术开发风险,比如,为AI生成内容添加数字水印。一旦用户使用了相关大模型生成内容,即可以通过此方法溯源。
2024年9月,全国网信办起草《人工智能生成合成内容标识办法(征求意见稿)》,面向社会公开征求意见。文中明确指出,由AI生成合成的内容需添加显式标识。
但目前这些方法很难规避AI生成的信息以“以假乱真”的形式传播。一方面,这些规定并不具备严格的法律约束力,监管上面临困难;另一方面,无论是图片还是视频,内容都可以被二次加工。其携带的标识信息也将随之弱化,甚至被抹除。此次“被压废墟下的小男孩”的图片,就是在二次传播过程中被抹去了相关标识。
在笔者看来,未来社会中,可能虚假消息远多于真实消息,在技术上“去伪”必不可少,但对每一条信息进行鉴定将带来极高的社会成本,因此,从源头确保信息的真实性更为重要。发布者无论是首发还是转发,都需要标注信息是否为AI生成合成。
或许将来社交媒体上,只有有来源标注且经过技术鉴定的内容,才值得信赖。
(作者系复旦大学计算机科学技术学院教授)
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)