【#能生成人裸照的性犯罪从韩国开始泛滥#】进入“电报”(以保密性著称的即时通信软件)聊天房,上传一张脸部照片,不到5秒钟,采用了深度伪造技术(Deepfake)的机器人(bot)就能合成一张真假难辨的照片——就当前而言,深度伪造技术已经可以把不同人的声音、面部及身体像拼图一样随意拼接,制作成各种影像乃至视频。在备受关注的“首尔大学深度伪造性犯罪”事件中,受害女性自己收集整理证据,用长达两年五个月的时间将加害者送上法庭。然而,有关深度伪造的数码性犯罪不仅没有得到遏制,反而愈演愈烈。
“正是由于韩国媒体的沉默,我们才不得不使用英语写作。这么做是为了迫使他们报道而非试图掩盖它。”参与者之一玛丽告诉《南方人物周刊》。与玛丽等人在社交平台发声不同,作为“首尔大学非法合成物性犯罪案”的受害者,张艺真和朋友们的战场是现实生活。她们的斗争是一次又一次地追踪和上诉。在深度伪造技术的加持下,任何人的照片都能被篡改拼接,而且看上去毫无修改痕迹。自己的脸被拿去拍裸照和小黄片这样的遭遇,如果能在韩国出现,那么理论上在全世界范围泛滥就是迟早的事,并且女性往往会首当其冲成为受害者。
海量资讯、精准解读,尽在新浪财经APP
VIP课程推荐
加载中...
APP专享直播
热门推荐
收起
新浪财经公众号
24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)