近年来,利用人工智能技术实施犯罪的案件正在快速增加,如何防范及治理的问题随之凸显。
中国科学院院刊1月7日出版的《人工智能犯罪与我国对策研究》报告(下称《报告》)称,人工智能技术暴露出的算法偏见、数据泄露、虚假内容生成、不当利用等安全风险极易引发各类新型犯罪,现有形势下的法律规制与技术防范仍存在漏洞,为犯罪打击带来严峻挑战。
《报告》认为,为有效应对我国人工智能犯罪的新挑战,需补充完善现有法律规范,提升技术防范能力,加强监管与人才培养,扩大国际合作范围,稳步提升人工智能犯罪防范能力。
该《报告》由北京市公安局多位专家联合撰写。《报告》提供的数据显示,随着人工智能技术的不断成熟和普及,越来越多的犯罪分子开始利用这一高科技手段进行犯罪活动。奇安信集团《2024人工智能安全报告》称,2023年,基于人工智能技术进行的深度伪造欺诈增长3000%,基于人工智能技术生成的钓鱼邮件增长1000%,“在可预见的未来,利用人工智能进行犯罪的案件会越来越多,给社会治理带来严峻挑战”。
《报告》提到,与传统犯罪相比,利用人工智能技术生成内容实施的犯罪活动真实性更强,受害人难以识别出犯罪行为。深度伪造诈骗案例中,犯罪分子利用人工智能进行换脸、换音,冒充他人进行视频、电话诈骗,真实度越来越高,肉眼难以辨别真伪,普通人难以察觉。例如,2024年2月,中国某地发生一起涉及多人“AI换脸”的诈骗案,诈骗者利用深度伪造技术制作受害公司多位高管的视频并邀请受害职员参加视频会议,整个会议仅有1位受害职员是真人,该职员见到与现实容貌相同的虚拟高管,信以为真,根据指示前后转账2亿港币,后向总部查询才知被骗。
《报告》称,对人工智能犯罪来说,除了人类利用人工智能技术或针对人工智能系统进行的犯罪行为,自动驾驶系统或具身智能机器人等由人工智能自身系统决策导致的独立犯罪行为也可能发生。虽然生产厂商对自动驾驶或机器人系统进行了大量安全测试与训练,但面对真实世界中更复杂的场景,智能决策机制可能会突破一些人类预先设定的基本原则,这将是人工智能犯罪完全不同于其他传统犯罪的独特之处。
目前,我国已经发布了一系列法律和政策,走出了一条探索人工智能犯罪治理的法治路径。国内头部科技企业推动人工智能自律自治,公安机关通过“净网”“夏季行动”等一系列专项行动,加强犯罪打击。
但研究发现,我国人工智能安全法律法规体系有待完善,人工智能安全相关规制条款分散在不同层级的法律法规中,缺乏统一的监管法律。人工智能监管措施尚未完善,在人工智能犯罪治理领域国际合作面临诸多挑战。目前,各国尚无人工智能技术使用的统一标准规范,尚未达成统一的关于人工智能治理的国际协议。
《报告》建议,建立高级别领导指挥体系,在省部级政府机关成立人工智能安全领导小组和专家组。制定专门性法律,推动法律法规适应人工智能技术的发展和应用场景变化,采取动态的法律更新机制,定期对法律条款进行更新,以适应新兴技术。对于人工智能的开发者、提供商、使用者等相关方,建立相应的责任追究机制,完善处罚与追责体系。建立人工智能犯罪发现和处置系统,开展常态化监测预警。参照网络安全等级保护体系,创设动态的人工智能分级分类监管机制,根据生成式人工智能服务的风险高低进行分类分级监管。
打击人工智能犯罪需要培养一批“善侦查、专技术、懂法律”的交叉复合型高素质人才,《报告》建议,优先在公共安全相关高校设置专门的人工智能安全相关专业,加强实际案例解析与培训,研究设计科研实践平台与攻防靶场。建立人工智能犯罪专属数据库,实时共享犯罪信息,有效凝聚共识、管控分歧,对跨境人工智能犯罪形成有力震慑。
(本文来自第一财经)
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)