人工智能立法之争:创新与规范如何平衡?从业者希望分级分类允许试错

人工智能立法之争:创新与规范如何平衡?从业者希望分级分类允许试错
2025年03月10日 23:47 红星新闻

雷军说,被网友吐槽的“去年国庆假期7天被‘AI雷军’骂了8天”,他想维权却无法量化损失;靳东说,喜欢他影视剧的观众被AI换脸骗得很惨,希望建立更好的规则;周鸿祎说,大模型都会存在“幻觉”,但应该对它多些包容,柔性监管。

2025年全国两会期间,人工智能一直是最受关注的话题之一。随着人工智能快速发展、越来越多地进入日常生活,对人工智能进行立法的呼声也越来越高。今年人大常委会工作报告也提出,将围绕人工智能、数字经济、大数据等新兴领域加强立法研究。

但也有反对的声音认为,AI带来的很多问题,可以靠现行法律或者行业标准来解决,对于还没有成熟的新事物应该鼓励创新。

日前,红星新闻记者采访多位两会代表委员、行业专家及人工智能领域从业者,与他们一起探讨人工智能立法是否正当时。

▲资料图 据IC photo▲资料图 据IC photo

正方:

尽快立法明确各方责任

为大模型发展划定边界和底线

目前,有多部法律和部门规章对人工智能进行规范。其中,网络安全法、数据安全法和个人信息保护法被称为“三驾马车,从网络、数据、个人信息的角度对人工智能进行规范与治理。部门规章方面包括《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》,2024年网信办还发布了《人工智能生成合成内容标识办法(征求意见稿)》。

为人工智能单独立法的行动也一直在进行。2023年、2024年,人工智能法草案两次列入国务院年度立法工作计划;2025年全国人大常委会工作报告提出,将围绕人工智能、数字经济、大数据等新兴领域加强立法研究。

2025年全国两会期间,有多位代表委员建议人工智能立法。

全国政协委员、四川大学华西医院教授甘华田接受红星新闻记者采访时提到,用AI技术深度伪造视频、政府公告等虚假信息,不仅误导消费者,还可能对社会秩序、国家安全甚至人民群众的生命财产安全构成威胁。但现行法律对AI生成内容的监管责任界定模糊,相关法律滞后,平台审核技术能力不足,违法成本低,治理难度大。甘华田建议推动专项立法,明确各方的责任义务,严惩AI造谣。

全国政协委员、中华全国律师协会监事长吕红兵接受央广网采访时表示,制定一部既要解决当下问题,又能充分考虑长远的人工智能法难度极大。他建议选择生成式人工智能这一社会最关心最直接最现实的“切口”,尽快推进“小、快、灵”立法,尽早出台行政法规。

全国政协委员、中国科学院院士李景虹也提到,应该加快制定人工智能促进法,立足于发展,结合最小化的包容性审慎监管规则,着力破解制约人工智能发展的认知不足、法律法规和政策协调滞后、优质数据供给和保障不足、版权和知识产权保护及必要的豁免规则等基础性问题。

▲全国政协委员李景虹▲全国政协委员李景虹

中国政法大学传播法研究中心副主任朱巍认为,目前已经到了需要为人工智能立法的阶段。

朱巍告诉红星新闻记者,大模型深度学习和产出内容中涉及国家安全、歧视等内容需要规制,关于AI作品的知识产权认定需要明确,AI的使用也不能侵犯他人权利,另外AI获取的个人信息、商业秘密等也需要明确管理责任。现行规定虽然有涉及,但缺乏对大模型平台、发布平台、使用者等各方面的责任划分。

朱巍认为,需划分风险等级,为大模型发展划定边界和底线。底线必须遵守,在此之外则鼓励发展和创新。

反方:

对新兴事物立法应慎重

建议用行业标准来规范AI发展

不过,在全国政协委员、中国科学院计算技术研究所研究员张云泉看来,人工智能发展到这个阶段逐渐需要立法进行限制了,但需要分类、分阶段。

张云泉认为,对于已经成熟的行业应用,进入生产环节产生实际的经济效益,并且对社会造成实际影响的,应该尽快立法。如伪造人脸、伪造短视频等需要限制,对生成式内容强制添加标注等。但是,目前的一些大模型,还没有完全成熟,也不能对人造成真实危害,可暂时不要着急立法去限制,而是要鼓励发展创新。

“在大模型的原理还没有完全搞清楚、机理不可控的情况下,制定标准进行评价和监管是很难的。可以做立法的研究准备,但不要着急去运用。”张云泉说。

▲全国政协委员张云泉 图源:九三学社官网▲全国政协委员张云泉 图源:九三学社官网

南开大学法学院副院长、南开大学数字经济交叉科学中心研究员陈兵教授则更明确地提到,不主张目前对人工智能进行综合性、整体性的立法。相反,他建议需要对一些过时的规章制度进行清理、回收,同时对于现行有效的也进行系统梳理,提升规范实效性,避免叠床架屋或合成谬误的发生,为企业创新营造一个更加宽松的环境。

陈兵认为,对于大模型这种新兴事物,可以考虑从“先发展再治理”走向“边发展边治理”,像平台经济一样,发展中规范,规范中发展。当前,对新兴事物保持审慎包容的态度,只有对那些看得准有显著且不可逆损害的,必须予以果断及时的阻断,对其他可控、可归责性的风险规制可以考虑通过技术标准、科技伦理等软法硬化的方式予以及时调控。需认识到,为创新发展,特别是超常规发展需要承担必要代价,特别是试错容错的代价其本身也是创新发展的一部分。

陈兵解释,不立法并不意味着放任自流。现行各种法律和规章制度可对目前的很多问题进行处理,或者进行一些创新修改后进行处理。需要行政执法部门针对新出现的情况去落实,提高依法行政的能力和水平。像AI诈骗之类的很多问题,本质上还是传统的违法犯罪,只是用了AI这种手段,并不需要出台专门的法律才能判定。

对于真正的由AI带来的新问题,比如数据的拖库撞库、大模型数据滥用等问题,则需要进行事前规制和专门的判定。

“我们可以通过行业标准的形式,通过单行法、部门规章的形式来调整人工智能产业的发展,也包括人工智能发展中遇到的科技伦理问题。但进行综合性的立法,我认为暂时是不成熟的,也是没有必要的。”

AI企业观点:

分级分类 柔性监管

允许非高风险领域创新试错

2025年全国两会期间,多位人工智能企业代表谈到了大模型“幻觉”的问题,也提出规范的建议。

全国人大代表、科大讯飞董事长刘庆峰就建议,建立安全可信、动态更新的信源和数据知识库来降低人工智能“幻觉”出现的概率,研究“幻觉”自动分析的技术和软件平台,开展“幻觉”自动分析、AIGC深度鉴伪、虚假信息检测、有害内容识别以及互联网传播溯源,由相关部门定期清理“幻觉”数据。

▲全国人大代表刘庆峰▲全国人大代表刘庆峰

全国政协委员、360集团创始人周鸿祎在接受红星新闻记者采访时提到,“幻觉”是大模型与生俱来的特点,建议借鉴“避风港原则”,对大模型以及相关的产品和服务实施柔性监管,适度包容大模型的“幻觉”。

对于制定人工智能法案,刘庆峰告诉红星新闻记者,高度敏感和高利害领域应该尽快出台法律法规,比如“AI+医疗”“AI+教育”等,要设定准入标准和行业评价标准。另外,需要明令禁止AI技术被用在各种各样的违法犯罪领域。

刘庆峰认为,如果出台人工智能法案,应坚持“发展和安全并重、促进创新和依法治理相结合”原则,建立统筹人工智能发展和安全的跨领域、跨部门协调机制,采取有效措施鼓励人工智能创新发展,如国家级规划、算力支持、数据开放、人才培养等,同时加强安全监管规范,对医疗、金融等高影响领域实施严格准入,防范算法歧视、深度伪造等技术滥用等。

刘庆峰建议,建立分级分类、包容审慎的监管机制,对高风险领域设定更加严格的监管措施,对于其他领域允许“创新试错”。

在刘庆峰看来,上位立法重在构建监管框架,聚焦原则性条款,具体规则可以在部分行业作为“小切口”切入,再视发展情况适时上升为立法,保留更大的灵活度。另外,关注科技伦理标准企业自律等相对软性管理措施,“软硬结合”规范管理。“硬法”阻止“作恶”,“软法”确保“向善”,充分发挥科技对于确立进步方向、标准对于凝聚行业共识、企业自律对于探索治理方式的作用,推动技术创新与风险管控齐头并进。最后,根据法规的复杂性、涉及领域的广泛性以及可能产生的社会影响,科学评估并确定合理的过渡期时长,并在过渡期做好宣传教育、培训指导等各项工作,确保过渡期有序进行。

红星新闻记者 付垚 刘亚洲

编辑 郭宇 责编 李彬彬

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片