为进一步规范山东省数据赋能新旧动能转换中算法运行程序,需对作为核心动能之一的算法予以体系性立法。为廓清数据赋能新旧动能转换中的法理构造,可将算法立法的属性归纳为社会规制、算法立法的对象界定为算法应用行为、单独立法作为算法立法的基本模式。在宏观立法逻辑层面,应当秉持“算法立法人的主体逻辑、算法立法的风险预防逻辑、算法立法的场景化逻辑”对数据赋能新旧动能转换的算法进行体系性立法。具体到规范展开层面,可从“明确算法透明度及可解释性标准、建立从审查算法技术到严控算法应用的全流程规制机制、完善算法应用者的责任界定与问责机制”三个维度予以细化。
一、问题的提出
以大数据、云计算、互联网、区块链、人工智能为标志的智能科技所催生的“数字化”“网络化”“智能化”革命,对现行秩序造成严重冲击和挑战,同时也为构建新秩序注入了强大动能。作为一种司法新样态,智能司法伴随人工智能业态的普及逐渐成为司法现代化的发展方向。当前,数据算法技术不但已经在司法领域得到了广泛应用,而且也在国家层面得到了党政机关的重视,国家发展与决策愈发重视数据算法技术的功效。例如,为支持山东在深化新旧动能转换基础上着力探索转型发展之路,进一步深化新旧动能转换,国务院于2022年8月正式发布《国务院关于支持山东深化新旧动能转换推动绿色低碳高质量发展的意见》。该意见具体到数据赋能新旧动能转换层面而言,主要提出了“促进工业化数字化深度融合、全面推动制造业数字化转型、培育壮大数字产业、推动重大创新平台建设、健全动能转换的市场化机制”等发展方向与要求。上述所有决策的前提在于算法的规范运行,而且通过法律法规的规范化指引明确技术应用的边界、规制技术应用可能存在的风险、重构智能技术侵权下的归责体系也是未来人工智能法学的发展方向。同时,《山东省大数据发展促进条例》指出,算法立法的重心在于保障“公众的算法主体地位”,防止“自主性消解”“认知性裹挟”“权利依附性”;算法立法应当兼顾“算法伦理”要求与合法权益保护,推动利益衡量与价值平衡。因此,为进一步规范山东省数据算法的运行程序、保障通过数据算法赋能保证山东省新旧动能转换的深化改革进程,当前亟须对山东数据赋能新旧动能转换中的算法法理构造进行解析,并在此基础上厘清其中的算法立法逻辑。
“新旧动能转换”通常指的是经济结构和产业格局由传统产业向新兴产业转变的过程。“数据赋能”则是指通过收集、分析和应用大数据来推动创新、提高效率和增强决策能力的过程。数据赋能对新旧动能转换具有积极的影响:它可以加速创新,提高效率,增强市场竞争力;规范地应用数据赋能可以帮助经济更好地适应快速变化的产业格局,进而为山东深化新旧动能转换与加快推动绿色低碳高质量发展保驾护航。然而,算法的应用也面临一些挑战。首先,基于算法的复杂性考虑,高级算法(如机器学习和深度学习)的开发和应用需要专业知识,这可能对企业和组织提出技术门槛;其次,算法的性能严重依赖于输入数据的质量,不准确、不完整或偏见的数据可能导致算法产生错误的结果;再者,算法需要访问大量的个人数据,涉及隐私问题,确保数据安全和隐私保护亦是一个重要挑战;最后,就可解释性而言,一些高级算法难以解释其决策过程,这在需要透明度和解释性的应用中成为问题。为此,有学者认为,当前自动化行政促生法律代码化,并引发了系列算法替代立法权现象,例如“算法规制对法律规制的技术性修改、对实施性立法的替代、对上位立法的僭越以及对法律规则体系的整体性架空。”当前亟须制定体系性的法律法规来引导和规范算法的使用。算法立法不但可以确保算法使用的公正性与道德正义,还可以确保算法收集大量公民个人信息这一过程符合隐私保护标准,从而防止数据滥用。此外,如果算法导致错误或损害,算法立法还可以明确责任主体与追责程序,确保相关机构和个人承担相应责任。基于上述问题意识,本文拟对数据赋能新旧动能转换中算法立法的法理构造进行解析,并探索其中算法立法的应当立法逻辑,以期为山东省深化新旧动能转换提供法律规范层面的保障。
二、数据赋能新旧动能转换中算法立法的法理构造
剖析算法立法的法理构造是算法立法逻辑展开证成的必要前提。具体而言,法理构造可从算法立法的属性、算法立法的规制对象以及算法立法的模式三个维度予以展开。
关于算法立法的属性,有技术规制与社会规制两种归属。具体而言,一方面,这种规制可能包括技术标准、算法安全性要求、数据隐私保护等方面的规定,旨在确保算法的开发和应用满足一定的技术要求,以减少潜在的风险和漏洞;因此,算法立法可以被视为对技术的规制。另一方面,算法立法也包括了算法对就业的影响、对不同群体的歧视可能性、信息透明度等问题;通过法律规制,可以建立起一套公平、透明的原则,确保算法的应用不会加剧社会不平等和不稳定;因此,算法立法又可以被视为对社会的规制。
首先,将算法立法属性归纳为技术规制可能会因为技术的复杂性而显得不够全面和有效。从技术属性的角度来看,算法的研发涵盖了诸多方面,包括算法规划、算法设计、算法召回以及算法评估。每一项算法行为往往代表着多种算法技术应用的综合体现,且多个平台、企业、产品可能会采用相同的算法技术体系。其次,将算法立法属性归纳为技术规制可能会因为技术的迅速发展而使得力量稍显稀薄。算法是现代科技的重要组成部分,不断涌现的新技术和应用可能在短时间内改变现有的社会和经济格局,使得监管机构面临前所未有的复杂性和难度。然而,监管机构的决策和行动通常需要经过一系列程序,它们很难在技术变革的前沿做出及时的反应。同时,监管机构可能面临技术知识和专业人员不足的问题,这进一步削弱了技术规制的效力。最后,将算法立法属性归纳为技术规制很容易陷入“赶超”的状态。这一状态指的是在制定规则和规定时,往往只能考虑当前已存在的技术和应用,却难以预见未来可能出现的创新。这种现象可能导致规制变得短视和不足,无法应对日益复杂和迅速演进的技术环境。
算法立法不是对算法技术的规制和约束,而是“通过法律的社会控制”,对算法相关社会关系进行规约,确保算法运行有序,促进算力稳步提升。当前我国已经形成具有中国特色社会主义法律体系,但法律体系的形成及规模的扩大并不表明法律体系已经完成且具有实效,更不意味着立法必然合乎社会需要。为此,当前应以社会需要为导向,来引领算法立法的方向与步伐。这种规制关注的是算法的影响,旨在确保技术的发展与社会的稳定相协调。将数据赋能新旧动能转换中算法立法的属性认定为社会规制的主要依据如下。第一,将算法立法属性认定为社会规制是全面考虑社会影响的结果。社会规制强调将人的权益和社会稳定放在首位。立法者和监管机构需要全面考虑算法的应用对社会的影响,就算法对市场公平竞争机制的影响而言,社会规制在算法立法中的重要目标之一是确保算法决策下的竞争机制公平,这涉及避免算法对市场操纵、垄断等造成不利影响。从社会规制的角度出发,立法者需要更加审慎地权衡技术创新和社会稳定之间的关系。为了解决当前问题,更是为了能够应对未来可能出现的新挑战,他们需要明智地选择合适的规制策略。第二,将算法立法属性认定为社会规制保障了公众参与度与透明度。一方面,算法对社会的影响广泛而深远,因此社会规制需要引入公众参与,充分听取各方意见。社会规制将公众参与度视为一项关键指标,以确保广大社会成员在算法应用的制定和实施中能够发挥有效作用。另一方面,透明度作为社会规制的核心原则之一,有助于揭示算法应用的内部机制和数据流程。立法者可以要求算法开发者对其算法的工作原理、数据采集和处理方式进行公开解释,使外界能够理解其运行逻辑和潜在影响。将算法立法属性纳入社会规制是推动科技与社会共同进步的重要举措。通过强调公众参与度和透明度,可以确保算法的应用更加符合社会的需要,减少不确定性,增强公众信任,进而实现科技的可持续发展。
第三,将算法立法属性融入社会规制的决策过程同时彰显了对道德和伦理问题的理性思考。在实施社会规制时,同样需要着重关注涉及算法的伦理和道德层面。这种立法举措有助于确立算法应用的伦理准则,以规范算法的行为,保障其在运作过程中不违背基本的伦理原则。将算法立法与社会规制相结合,既强调了合法的重要性,也强调了道德和伦理问题在科技应用中的地位。通过制定明确的伦理准则,可以规范算法行为,从而实现算法科技与社会伦理的和谐共存。
涉及算法行为主要有两大类,分别为追根溯源的算法开发行为与直接面临用户的算法应用行为。关于算法研发行为与算法应用行为的内涵与核心法律关系,从不同角度切入,又会有不同的结论。关于算法研发行为,学界一般认为,从技术属性角度看,其涵盖算法规划、算法设计、算法召回、算法评估等环节;从社会属性角度看,算法研发行为的核心法律关系主要是算法研发者与用户之间的关系。关于算法应用行为,学界一般认为,从技术属性角度看,其主要包括算法匹配、算法推荐、算法决策、算法筛查等环节;从社会属性角度看,算法应用行为的核心法律关系主要是算法应用人与相对人、行政机关、其他经营者之间的关系。简而言之,算法研发行为是指设计、编写和测试算法过程中的行为。在这个阶段,立法可以通过制定法规来规定算法开发者应遵循的标准、程序和道德规范,以确保算法的质量、安全性和透明度。算法应用行为是指将开发的算法应用于实际情境过程中的行为。在这个阶段,立法可以着重考虑如何监管使用算法的行为,以防止滥用和不当行为。
首先,算法研发行为与算法应用行为所使用的算法有着属性上的差异。算法研发人员使用的算法是刚刚研发出来的“纯粹的算法”“没有受到任何污染的算法”“不带任何功利以及目的的算法”。这些算法是研究者经过深入分析和数学建模后创造的,它们不受外部因素的影响,旨在解决特定类型的问题。这些研发过程通常追求科学探索和知识的推动,不受商业利益或政治考虑的制约。而算法应用人使用的算法恰好与上述算法不同,其是将算法进行排列组合,适用于不同环境,以满足不同场景下不同应用需求的“再次处理过的算法”。这个过程被称为“再次处理”,这意味着算法在应用过程中可能会受到一定程度的修改,以满足实际需求。正是这个“再次处理”的环节,引发了一些社会应用方面的隐忧。一方面,这种再次处理可能导致算法的不透明性,也就是所谓的“算法黑箱”问题。另一方面,算法应用的再次处理可能引发算法歧视的问题。如果算法应用人员不慎引入了偏见或不平等的元素,原本中立的算法可能会在应用过程中对某些群体或个人产生不公平的影响。有通过对算法应用行为的社会规制,才能够把控输出端效果的正向性,“确保算法应用向上向善”。其次,将算法应用行为认定为算法立法的规制对象符合实行行为基本原理。从实行行为原理层面剖析,就刑事法领域而言,实质的实行行为概念表现在三个方面:第一,将规范性义务违反内在化的实行行为;第二,具备客观的法益侵害之危险性的实行行为;第三,行为支配说意义上的实行行为。然而将算法开发行为认定为实行行为的话,却面临着以下诘难:第一,实行行为涉及将规范性义务违反内在化的行为。这意味着实行行为需要涉及某种违反法律或规则的行为,这种行为应该是有意的,而不是无意的。然而算法开发行为通常是在研究和科学探索的背景下进行的,它们旨在创建新的技术而不是违反法律义务。因此,算法开发的阶段一般不会涉及将规范性义务违反内在化的实行行为。第二,实行行为需要具备客观的法益侵害之危险性。这意味着行为本身必须具有潜在的危险性,可能会导致他人的法律权益受损。而在算法开发的初期阶段,尚未涉及广泛的社会应用,因此很难认定这些行为具有明显的法益侵害危险性。通常情况下,算法开发人员致力于技术的提升和知识的推动,而不是迫使他人遭受损害。第三,实行行为需要符合行为支配说的要求。这意味着行为必须具有一定的主观故意或过失,以便将其视为实行行为。在算法开发的初期阶段,开发人员通常无法意识到他们的行为可能会导致法益侵害,因此难以认定其具有实行行为的要件。
最后,从责任归属层面分析,根据受益者负担原则的指引:“利之所在,即损之所归”,应当将算法应用行为认定为算法立法规制的对象。运用算法技术获利的企业和组织才是利益获得者、实际受益人,因而上述算法技术的运用方才应当是责任的真正承担者。这些企业和组织在将算法技术应用于实际环境中时,可能会对用户、社会和经济产生影响,因此应当对其行为负有一定的法律和伦理责任。其需要确保算法的使用符合法律法规、伦理标准,并采取适当的措施来监测和纠正算法的行为,以避免可能的不当行为和损害。这包括确保算法不会歧视、不会侵犯用户的隐私,以及不会导致不公平的结果。此外,企业和组织还应当与监管机构和社会各方保持透明沟通,以便及时披露有关算法的信息,解释算法的运行方式,接受监督和审查。综合考虑,责任归属原则的适用可以协助确定算法立法的对象,并明确各方的责任。
在数字技术的冲击下,各法律部门所受影响的广度与程度亦有差异,为此,当前学界对待数字技术主张专门立法与否的态度亦存在争议。大部分学者主张通过对相关领域的数字技术进行专门性立法来达到对该领域中算法应用行为的合理规制。也有学者提出质疑,认为国内主流舆论与实践倾向于采取专门立法的理由难以支持该法律化路径的必要性与正当性。其主张在厘清“技术风险焦虑症”与“社会工程学思维”作为专门立法热潮形成的底层逻辑基础上,应通过构建由一系列基础规则与例外规则组成的评估框架,即明确释法、修法、专门立法、合并立法等路径的优先顺位及逸脱规则,为数字新兴议题法律化路径之抉择提供具体且客观的评判标准。当前已有的个人信息保护法、数据安全法、网络安全法与电子商务法以“外接形态”,为数据赋能新旧动能转换中算法单独立法预留连接“动线”。但本文认为,若采取并入立法模式对算法进行立法,不足以实现对算法应用行为的全方面规制。具体理由如下:一方面,从立法对象而言,算法法律关系的外延囊括一般数据信息法律关系。这意味着算法并入立法模式难以完全适用于特定的算法应用场景。算法的广泛应用涵盖了从自动驾驶汽车到医疗诊断,从金融风险管理到社交媒体推荐等各个领域。每一个领域都有其独特的风险和法律考量,不容忽视。如果将算法简单地并入现有的法律框架,很可能会忽视这些差异,导致不合适的法律规制或者遗漏必要的监管措施。这一问题的实质在于,算法应用的多样性和复杂性使得其法律特征具有高度的异质性。此外,算法应用的迅速演进和技术创新性质增加了立法的挑战。传统的法律立法过程通常需要耗费大量时间,而算法领域的技术进步迅速,新的应用和算法模型不断涌现。这就需要法律规制具有足够的灵活性,能够迅速适应这一变化,以确保法律的有效性和适用性。另一方面,从算法权利的独特性而言,算法立法相较于一般数据信息立法亦具有独特性。在传统的数据信息法律框架中,数据主要被视为一种静态的实体,其收集、处理和存储受到法律的监管。然而,算法所具备的计算和决策能力,超越了传统数据的被动性质,使其拥有独立的运作和行为能力。算法不仅能够处理现有数据,还能够主动地从数据中提取模式、作出预测并影响个体和社会的决策。这种主动性和自主性使得算法在法律层面上具有了独特的权利和责任。为了确保对算法行为的有效监管,必须认可算法作为一种独特的实体,其与个人、组织和社会之间的法律关系应当受到特殊关注。这包括对算法所作出的决策和行为承担法律责任进行明确规定,以及确保算法行为符合法律、道德和社会价值观的合法性。此外,由于算法通常以自学习和自适应的方式运作,其行为难以完全预测,因此需要建立灵活的法律机制,能够及时应对算法可能出现的问题和风险。
人工智能在技术的本质意义上就是算法,算法的推广应用使得传统的“人—人”和“人—物”的关系被整合为“人→人工智能→人”之间的接续关系,这样的关系模式,催生新的社会结构的形成,人与人工智能之间关系的整合不得不重新定义法律关系,进而影响法律行为和法律责任,并最终导致法律体系的重设。在厘清数据赋能新旧动能转换中算法立法的法理构造基础上,有必要从“算法立法人的主体性逻辑、算法立法的风险预防逻辑、算法立法的场景化逻辑”三个维度对数据赋能新旧动能转换中算法立法逻辑进行体系性架构。
在深度学习算法的推动下,人工智能对人类的操控和替代,可能比我们预想得更为严重。人类有时为了作出明智的选择,不得不依赖于算法。对于这个现象,以色列历史学家尤瓦尔·赫拉利在《未来简史》一书中认为,科技已经让外部算法有能力“比我更了解自己”。虽然书中折射的许多技术决定论观点还有待审视,但也给读者观察算法提供了另一种思考方式。即技术自主性对人的主体性提出挑战,算法与人会在客观层面形成一种技术支配关系。其实,当人工智能类人程度越来越高,甚至开始出现自主性和反身性认识的时候,人的主体性就出现了非人化转移。在这个意义上讲,人的主体性正在消减,沦为算法应用中可量化、可支配和可操纵的客体。对此,更有学者形象地提出“算法利维坦”的概念。算法逐渐成为构建人们生存环境的重要力量,人们逐渐成为算法的附庸,臣服于算法程序监控之下,国家权力运行与社会治理日益依赖智能算法的维持。不过,即使算法使人们陷入主体性危机,但算法规制的逻辑起点依然要避免其俘获、奴役人类,从而遏制人的主体性丧失趋势。事实上,数据赋能新旧动能转换中算法的立法规制同样需要立法者遵循人的主体性逻辑,并在立法任务上能够使“人”恢复至原有的法律主体地位。
那么,如何实现数据赋能新旧动能转换中算法立法人的主体性逻辑?除了要遵循“人的主体性”理念外,还要围绕该理念展开算法应用中具体法律制度的设计。值得注意的是,无论是商业领域的法律制度,还是公权力领域的法律制度,都要以人的权利配置为核心内容,并由此形成一整套权利保障制度。其中,关于公民数字权利的配置又极为重要。在理论层面,有学者就曾强调算法的公开透明、可解释性和可理解性,使个人享有抵御算法歧视的权利。在规范层面,《算法推荐管理规定》第11条就要求算法推荐服务提供者在加强算法管理时,应建立完善人工干预和用户自主选择机制。与之对应,这种义务性要求则赋予了用户“获得人工干预权”和“自主选择权”。在根本上,这是由权利本身特性所决定的。“人”之所以能够成为法律关系的主体,就因为其兼具法律上的权利能力和行为能力。不过,无论是权利能力还是行为能力,都离不开“人”的权利享有。在一定程度上,“人”和“权利”会呈现出鲜明的一体性。权利的能动性和可选择性意味着法律权利赋予了权利主体在法定范围内为实现利益要求而表现意志、作出选择、从事一定活动的自由。在这里,并没有将公民的数字权利与传统法学所肯认的权利作出区分。数字权利虽然是一种新兴的权利形态,但却与传统法学所认可的权利体系有着密切联系。数字权利在权利形态上具有从属性,其主张的法益几乎附着在传统法学所有形态的权利领域,是与传统权利体系并存的补充性权利。在这种情形下,完善数据权利保护的法律制度也是存在法理基础的。立法机关也好,行政机关也好,都有责任对公民数据权利进行保障。
目前而言,科学技术已经成为现代风险的主要表现形式。在客观上,由算法自我适应性所带来的 不确定性和不透明性,无疑在加剧科技风险的影响程度。另一方面,人们对算法应用的绝对信任和过度依赖,也在无形中放大了技术性风险的负面影响。在现实生活中,技术误用、技术滥用、利益博弈下的选择使用,都会引起技术社会风险。这些都是技术社会风险的产生方式,并且与人对算法应用的主观目的密不可分。综合主客观因素,以技术权力为外观的算法权力得以兴起,正逐渐成为支配或影响社会资源调配的新兴力量。然而,由于算法黑箱的存在,其不透明、不可解释、不可追踪的特质,致使算法权力的异化风险大大增加。在此过程,算法作为“某种产品或活动的危害后果不能被清楚而充分地认知”,在应用中极有可能侵犯公众的知情权、自主决策权等,甚至对现有法律秩序和社会秩序带来严重冲击和挑战。除了技术本身的原因外,相应法律规则的缺失或失灵,也会对算法权力异化风险的规制表现出一种无能为力。对此,算法权力异化的本质可归结为法律与技术的疏离对立。即使如此,也要将法律控制作为算法权力规制的重要手段。尤其在算法立法中,立法者必须重视风险控制功能的法治化,也就是遵循风险预防的逻辑。
一般认为,风险预防原则是要求决策者对不确定风险保持关注的一项原则,其首先是作为环境法上的原则出现的。在立法实践层面,风险预防原则已经为许多国际环境法文件所吸收,并作为环境保护的合法方法或措施。其实,风险预防原则也已经成为环境保护法律制度的一项原则。随着智能化算法在不同场景中的广泛使用,因其权力异化风险所造成的威胁远远超出了人们能够感知和容忍的范围。这种现象产生的原因,多是由于算法结果的未知和不可控导致的。因此,立法机关必须承担起立法规制责任,对算法权力的异化风险进行有效预防,以实现其安全、可控的目的。风险预防所仰赖于科技的,并不是其无限制发展所带来的救赎,而是对科技能够理性而有节制地使用。同时,这也是算法立法风险预防逻辑的基本方向。
“场景”,简言之,就是“时空”与“情境”要素的复合。“场景”一词已被广泛运用在不同领域。就“场景化”而言,虽然其在概念上不同于“场景”,但在核心要素上却是通用的。“场景化”依然遵循了“时空”与“情境”的复合维度。在算法立法中,之所以要引入场景化逻辑,除了实用主义的逻辑外,还是由算法本身性质及其立法规制的特殊性所决定的。一方面,数据赋能新旧动能转换中算法技术的研究和应用只能存在于特定场景之中,其性质会因具体场景的不同而有所差异。算法是被设计来完成特定任务的,其表现可以通过一定指标来衡量,这些指标体现了人类在不同场景中语境化价值选择。另一方面,数据赋能新旧动能转换中算法的立法规制所欲确立的法律关系调整对象或内容多样,且以算法应用场景为基础。
有学者曾指出,“根本没有所谓的技术‘本身’,因为技术只存在于某种应用的情境中。”以人工智能技术为例,其已经在民生服务、社会治理、经济发展等领域得到融合应用。其中,民生服务领域就包括医疗、教育、就业、交通、住房保障等具体场景。作为人工智能技术发展基础的算法,其研发和应用也只能围绕上述具体场景展开。只有如此,算法技术的研究和创新才具实在意义。实际上,因算法本身性质而运用场景化立法逻辑在地方性法规中已有体现。例如,《深圳经济特区人工智能产业促进条例》第71条就将算法的说明场景确定为公共决策领域以及涉及公共利益的商业领域。就后者而言,算法法律关系的调整对象或内容并不是以某一部门法为载体的单一法律关系,而是多元化的。这里面,主要包括民事法律关系、行政法律关系和经济法律关系等。譬如,算法服务提供者与相对人之间的合同法律关系,行政机关与算法服务提供者之间的行政管理法律关系,以及应用算法的多个平台、企业、算法研发人与算法应用人之间的竞争法律关系。上述算法法律关系的确立,多与算法在特定场景的应用密切相关。当然,若要实现算法法律关系的形成、变更与消灭,还必须具备法律事实这个条件。法律事实作为一种客观存在的情况或现象,是由法律规定,且具有法律意义的事实。这意味着,法律事实已经符合法律规范逻辑结构中的假定情况。在算法立法中,假定情况的创设更是需要以算法应用场景为基础的。因此,有学者认为,算法并不是一种标准化的物,而是一种人机交互的决策,其法律属性会因具体场景的不同而有所不同,算法法律规制的原理必须建立在场景化的基础上。这一点,在学界已经取得共识。那么,如何才能实现算法立法的场景化逻辑?本文认为,可将算法应用场景与其可能存在或者立法者所欲确立的法律关系结合起来,从而实现相应制度安排。这是因为,无论是法的制定,还是法的实施,都无法脱离某一特定场景。并且,算法法律关系的有效调整将直接促进算法以可信状态获得应用。据此,可从以下几个方面着手:(1)在主体上,明确具体场景下算法法律关系中享有权利和履行义务的人。例如算法服务提供者、算法研发者、算法应用者、行政机关、第三方等。(2)在客体上,厘清具体场景下算法法律关系主体的权利和义务所指向、影响和作用的对象。如此,才能确定算法规范所要保护的法益。(3)在内容上,确定具体场景下算法法律关系主体所享有的法律权利、承担的法律义务和履行的法律责任,从而为其行为划定合理边界。
在厘清立法价值与立法原则后,应当从具体规则层面给数据赋能新旧动能转换中算法立法给予规范设置。首先,为积极应对算法黑箱及系列法律挑战,应当统一明确算法透明度以及可解释标准;其次,为规范“算法匹配、算法推荐、算法决策、算法筛查”等算法应用行为,应当通过引入算法全流程规制建设方案来建立从审查算法技术到严控算法应用的全流程规制体系;最后,还应当从责任层面明晰算法应用者的责任与建立具体问责机制。
当前关于人工智能法律地位以及法律责任问题学界众说纷纭,有学者提出:“探讨人工智能的法律责任问题,应该基于人工智能行为的可解释性的全新路径来推进,而不是纠缠于当下学界关于人工智能主体地位与法律责任的各种主体论与责任理论。”同时,其抛出“人工智能法学研究的下一个前沿问题是人工智能的可解释性问题”命题。
可解释性不仅仅是技术层面的问题,更是法律责任的前提。在人工智能系统做出决策时,这些决策必须能够被理解和解释,以便在出现问题时能够追溯责任。承认并合理界定算法可解释性的具体标准,具有以下几点优势与支撑理由。第一,算法可解释性促进责任追究。可解释性使得人工智能的决策和行为能够被理解和解释。第二,算法可解释性推动技术改进。确保人工智能系统的可解释性也有助于推动技术的改进。通过能够解释的系统,开发者可以更容易地发现潜在的问题和错误。第三,算法可解释性也是建立社会对人工智能系统信任的基础。
人工智能的可解释性应当符合社会的期待和伦理标准。这需要在立法过程中广泛征求公众意见,建立起社会对于人工智能可解释性的共识。只有当社会大众认同某种解释性标准时,相关的法律规定才能够真正得到贯彻和执行。因此,人工智能系统的可解释性就显得尤为关键。公众意见的广泛征集,既能够使立法者更好地了解社会期待,也能够让普通民众参与到科技发展的决策过程中,保障了社会各界的利益得到充分考虑。通过公众的参与,立法者不仅能够获取对人工智能技术的普遍看法,还能够了解到不同群体的特殊需求和担忧。这种多元化的意见反馈为立法者提供了更全面的信息,使得制定的法律框架更加具有针对性和前瞻性。另一方面,在立法过程中广泛征求公众意见,可以建立起公众与决策者之间的沟通渠道。公众参与可以提高决策的透明度,确保决策的合法性和公正性,同时也增加了公众对法律规定的接受度。
针对人工智能的可解释性问题,在数据赋能新旧动能转换的算法立法中,应当制定相应法律框架,即规定人工智能系统必须满足一定的可解释性标准。这些标准应该涵盖多个方面,可以包括算法透明度、决策过程可追溯性、决策依据的合法性等,以确保人工智能系统的决策过程是透明、可追溯和合法的。这样的法律规定将为人工智能技术的发展提供明确的指引,使其在保持创新的同时也能够确保法律责任的可追究性。可解释性标准的设置应当确保算法透明度是人工智能法律框架中的基本要求,将算法决策过程可追溯性进行专门性规定,确保人工智能系统的决策依据的合法性是人工智能法律框架的关键内容。
从行为角度看,算法应用主要包括算法匹配、算法推荐、算法决策、算法筛查四种行为。“算法共谋”是由算法决策行为引发的;“大数据杀熟”是算法匹配、算法决策、算法推荐行为共同作用的结果。在数据赋能新旧动能转换中算法立法时,除了需要严格区分四种算法行为,分别设置专门条款加以规制之外,还需要引入全流程的算法规制建设方案,以实现从审查算法技术到严控算法应用的全流程规制。具体而言,全流程的算法规制建设方案可从以下方面予以推进。首先,算法匹配是指通过智能算法将用户需求与相应资源或服务进行匹配的过程。这种行为涉及用户隐私数据的处理和交互操作,因此在算法匹配的过程中,应该确保用户数据的隐私安全,遵循数据保护法律法规,保护用户的合法权益。对于此类行为进行规制建设应当明确规定数据采集和处理的范围,确保只收集必要的用户信息,同时对敏感信息进行特殊保护。规制建设还应当包括数据加密和存储安全,以防止用户信息在传输和储存过程中遭到泄露或被非法访问。此外,需要建立用户授权机制,确保用户在明确知情的情况下同意数据被收集和使用,同时提供用户随时撤销授权的选项。其次,在算法推荐行为中,规制建设应当注重推荐结果的透明度和公正性。算法推荐往往依赖于用户的历史行为和个人偏好,因此需要确保推荐结果不受商业利益和广告干扰,保持客观公正。此外,需要建立用户反馈机制,让用户能够对推荐结果进行评价和调整,确保推荐系统持续优化以满足用户需求。再者,在算法决策方面,规制建设需要强调算法模型的可解释性和公平性。决策的透明度是保障公正决策的关键,用户应该能够了解决策背后的逻辑和依据。同时,需要进行算法偏见和歧视性的审查,确保决策结果不会对特定群体造成不公平待遇。建立监督机制,对决策结果进行定期审查和评估,及时发现和纠正不合理的决策。最后,在算法筛查方面,规制建设需要遵循法律法规,明确筛查的目的和范围。筛查行为必须在法定的情况下进行,不得越权,确保个人隐私和数据安全。同时,建立数据保留和销毁机制,明确筛查数据的保存期限和销毁流程,避免数据长时间滞留和滥用。综上所述,算法应用的规制建设需要从数据采集、算法模型、决策过程、筛查行为等多个环节进行规范。只有在严格的规制框架下,算法应用才能真正服务于人类社会,推动科技的进步,同时保护用户的隐私权和数据安全。这种规制建设不仅是对技术的要求,更是对社会责任和伦理道德的体现。
关于人工智能法律责任的全部问题在于,“人工智能是否以及如何对自己的损害行为承担法律责任”。随着人工智能技术的快速发展,这一问题日益凸显,需要建立明确的责任界定与问责机制。
算法使用者不能以无法理解算法决策为由进行辩护,从而逃避法律责任。在面对人工智能系统的决策时,使用者应当承担一定的调查和了解义务,确保他们使用的算法符合法律法规,并且明晰其可能带来的风险和后果。在确定责任时,需要考虑使用者的专业知识和经验。如果使用者拥有相关领域的专业知识,那么其应当具备更高的认知能力,能够理解和评估算法的决策。对于专业领域的人工智能应用,使用者应通过法律拟制方式被视为在法律责任中更为负有责任的一方,因为其有能力辨别和预见潜在的风险。同时,算法开发者在设计算法时,应当注重用户友好性和解释性。这种开发者的努力有助于减轻使用者的责任,因为其可以更容易地理解和信任算法的决策。
不同层次的算法使用者在人工智能应用中扮演不同角色,其应当对应不同层次的责任。在第一层,即普通用户层面,其在使用人工智能服务时,应当具备基本的调查和了解义务,确保其使用行为符合法律法规。在这种情况下,如果用户在合理范围内无法理解算法的决策原理,他们有责任寻求专业意见,而不是将责任推诿给无法理解的算法。在第二层,即专业领域的用户,此时的算法使用者通常具备相关领域的专业知识,能够更深入地理解和评估算法的决策。这种情况下,他们应当被视为在法律责任中负有更多责任的一方。在开发者层面不仅仅在于提供一个功能强大的算法,更在于确保用户能够理解和信任这个算法。此外,在涉及高风险领域的人工智能应用中,还应当建立独立的专家委员会。这种专家委员会的存在,既能为使用者提供可信赖的第三方评估,也可以为开发者提供指导,确保其算法的合法性和透明度。分层分类的责任追究方式有助于在人工智能应用中实现更为精准和公正的责任界定,保障各方的合法权益。
第三方机构可以由行业专家、法律专家和公众代表组成,负责审查涉及重大责任问题的算法决策。这种独立机构的存在,能够为使用者提供客观公正的评估,确保算法的决策符合法律法规和伦理准则。这个独立机构的设立,旨在打破利益相关,保证决策的公正性和客观性。这不仅使得算法的使用者在决策受到质疑时能够获得客观的第三方评估,也让算法开发者在设计时更加谨慎,避免违法违规行为。同时,这也为社会大众提供了一个信任人工智能技术的保障,提高了人工智能技术的接受度和应用范围。这种独立机构的设置,对于从源头上减少因算法应用行为而产生的纠纷有重要意义。
法律代码化赋予了算法规则以规范属性,也促进了立法性算法权力的生发与勃兴。但为了规范立法性算法权力与规范算法行为的应用,其本身也应接受法秩序的约束。在分别从宏观与微观视角理顺数据赋能新旧动能转换中算法立法的基本关系后,只有从法规范层面将新旧动能转换中算法立法的法理构造与立法逻辑予以细化,才能为山东省数据赋能新旧动能转换中算法立法工作的开展奠
定理论基础。但基于技术问题的融汇与交叉,当前还很难通过暂时的制度构建一劳永逸的算法性立法规范。例如,算法决策引发争议的法律解决具体途径中管辖、证据的收集规则、证明责任的倒置与否等问题,都需进一步细化与落实。然而权力需受到制约是不变的公法原理,数据赋能新旧动能转换中的新兴算法性权力亦不例外,亦需立法予以进一步规制。
陈文君|生物科技犯罪的实践检视与适用方向
任赖锬 朱雨琪|算法自我指涉与规范冗余机制的阐释与面对——以外卖配送平台为例
齐俣|数字时代平等权的挑战与回应
郭欣怡|网络暴力治理中的法益冲突与刑法立场
万美秀|企业数据民事司法保护的现状分析、适用困境与优化路径——基于342份裁判文书的实证分析
李东亮|伦理载体的虚实之间:元宇宙性侵的法律规制与理论勘误
上海市法学会官网
http://www.sls.org.cn
特别声明:本文经上观新闻客户端的“上观号”入驻单位授权发布,仅代表该入驻单位观点,“上观新闻”仅为信息发布平台,如您认为发布内容侵犯您的相关权益,请联系删除!
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)