转自:杭州网
仅凭几张照片,任何人都可能成为受害者。
6月18日,“男子用AI伪造学生同事近7000张裸照”的消息引发关注。
北京警方侦破一起案件:犯罪嫌疑人白某某,原本是一家互联网公司的技术员。
他用AI“一键去衣”技术,深度伪造淫秽图片近7000张,再每张1.5元卖出。目前,白某某已被检察机关提起公诉。
橙柿互动了解到,白某某用的这款人工智能软件,能很快对被害人的图片“一键去衣”,几秒钟、几分钟能批量生成相应的图片。
图片涉及女性人数多,包括学生、教师、同事。类似这样的案件,杭州执法部门也介入过。
小区里有人AI技术传播淫秽图片
前不久,北京警方接到报案,在海淀区某小区内,有人利用AI技术,传播淫秽图片。
很快,24岁的犯罪嫌疑人白某被警方抓获,是一家互联网公司技术员。
据调查,白某某用一款人工智能软件,能很快对被害人的图片“一键去衣”。
一键去衣,白某是怎么做到的?
生成这些淫秽图片,对于白某来说非常简单,他只需要一张女性日常图片,几秒钟就可以完成所谓的“一键去衣”。
白某某还在网上发布广告帖, “电脑AI去衣,白菜价”“身边人、网红、明星皆可”。
他以此为兼职,开始赚起了外快,每张照片仅售1.5元,通过网络向351个人贩卖过相关图片,图片数量将近7000张。
日复一日地合成图片,白某这种行为的后果也逐渐显现,意识到情形不对,白某开始有些害怕。
接到报警后,警方抓获了白某某。
这些经过去衣的照片的受害者都是什么人?
据警方调查,白某某的广告发布后,有不少人联系他,给他发送身边同事、学生、网红、明星”照片,购买这项“去衣”服务。
近日,北京市海淀区检察院对白某,以传播淫秽物品牟利罪提起公诉。
同时考虑到白某制作的数千张图片,已经侵犯到不特定人的权益,检方对白某同时提起了公益诉讼。
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)