转自:新京报评论
被造假的名人只能“发声明”,上当的消费者只能“认倒霉”,这种无力被动的状况必须改变。
文|柳早
什么?“张文宏”开始带货了?
最近有网友向媒体发来一段视频询问“张文宏是不是带货了?”在卖一种蛋白棒,家里的老人信以为真已经下单,还转发了很多群。
据媒体报道,在名为“般画234”的账号视频中,“张文宏”反复介绍着一种产品,口型是他的,声音也是他的。目前,这段伪造的视频在账号内已不可见。
如果是辨别能力强的观众,不难看出这是AI深度合成的视频。可是对很多老年消费者或是对“互联网生态”不那么了解的人来说,这依然能起到以假乱真的效果。比如该账号的商品橱窗截图显示,这款蛋白棒已售出1266件,可见“中招”的消费者并不少。
这种现象也并非罕见,除了张文宏之外,不少名人都深受生成AI仿冒之苦。比如此前引发众多关注的“假靳东”事件,骗子用AI伪造靳东的形象,以“谈恋爱”“拍戏”为名,大肆诈骗老人钱财;此外,明星艺人刘德华、黄百鸣,胖东来创始人于东来,小米董事长雷军等,都曾就自己被AI仿造发布过声明。
这种现象之所以猖獗,其实和追责困难有关,这点从张文宏的大吐苦水就能看出来。有记者联系了张文宏,“这样的卖货账号不止一个,且一直不断在变,自己多次向平台投诉但屡禁不绝。”他称自己也曾考虑过报警,但对方看不见摸不到,就像幽灵一般难以描述,“像蝗灾一样,一次次害人”,只能寄希望于相关部门加强监管。
事实上这正是问题的症结所在,伪造名人的账号,由于数量众多、分布广泛,让逐个进行维权变得近乎不可能。而且这些账号还学会了一大堆伎俩,比如趁着深夜把带货视频放出,到了早上再把视频屏蔽掉,这样买的人就投诉无门,也很难被发现。
这种乱象显然不应该再持续。其实现在已经不乏相关规定对此进行约束,《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等,都在内容审核、信息标识方面对生成AI的规范使用提出了要求。后者还特别强调,使用AI生成内容不得侵害他人肖像权。
但快速发展的AI产业造成了相关信息的爆炸式增长,客观上给AI信息甄别带来了困难。据《2024人工智能安全报告》显示,2023年基于AI的深度伪造欺诈暴增了3000%,基于AI的钓鱼邮件增长了1000%,可见问题的严峻。
因此,治理也应当提速,跟上产业发展的步伐。值得注意的是,今年9月,国家网信办发布《人工智能生成合成内容标识办法(征求意见稿)》,明确要求AI生成合成的内容要在显著位置作出标识,这也是进一步提出的强制性规范。
而问题的关键还在于执行,尤其是生成AI的主要使用场景——短视频平台,更要主动承担主体责任。对于生成AI内容应当进行更加严格的审核,并定期进行大规模内容筛查,如发现违规使用场景,就应当对账号作出严肃处理。
同时也应当对被侵权人和消费者维权提供更大的支持。比如张文宏抱怨“对方看不见摸不到”,这种现象就应当引起重视。当被侵权人或消费者向平台提出质疑,平台应当进行协助,提供相应的信息,帮助被侵权人和消费者锁定账号背后的实体或个人,由此进入赔偿或司法程序。
无论如何,不能任由AI造假泛滥成灾。从新闻也能看到,被造假的名人只能“发声明”,上当的消费者只能“认倒霉”,这种无力被动的状况必须改变。对此,无论是相关部门还是互联网平台,都需要进一步发力,提高信息筛查能力,让侵权者付出沉重代价,也让AI的技术发展始终保持在法治轨道之内。
撰稿 / 柳早(媒体人)
编辑 / 迟道华
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)