2017年07月07日16:09 财经国家周刊

  给人工智能定规矩有多难

  目前在人工智能监管方面的挑战主要来自公平性、透明性和责任认定三方面。

  文/《财经国家周刊》特约撰稿 李军

  在开始谈论人工智能管理之前,先做一道选择题。

  一辆载人的自动驾驶汽车高速接近一个路口,此时路口有十个行人正在过马路。在刹车突然失灵的情况下,汽车的自动驾驶系统应该如何选择:

  1、拐向路边的固定障碍,躲避十个行人但牺牲车内一位乘客;

  2、保持直行,确保车内一位乘客的安全但牺牲十个行人。

  您会如何选择?我们看看公众的观点。

  当美国学术期刊《科学》就这个问题进行公众调查时,76%的被调查者表示,应该选择牺牲一位乘客以保全十位行人。而且这些选择“牺牲一位乘客”的被调查者都同意以下观点:自动驾驶汽车的制造商应该把“汽车事故死亡数最小化”作为一个指导原则设计自动驾驶系统——我们且称之为“公平对待系统”。

  有意思的是,当询问被调查者是否愿意购买安装“公平对待系统”的自动驾驶汽车时,大部分人表示,他们还是会选择安装“车内乘客优先系统”的汽车。

  作为人工智能技术发展目前最成熟的领域之一,自动驾驶汽车遇到的选择悖论并不是特例。事实上,人工智能技术作为数字经济时代最重要的科技创新,在逐渐深入发展并成为现代社会一部分的时候,从道德与法律到监管与责任划分,无不面临着前所未有的两难选择。

  欧美研究监管原则

  针对这样的挑战,目前从美国、欧盟到中国,各国都在从技术、法律、行政和道德伦理等多个方面进行研究探讨,以期在不远的将来制定满足人工智能应用的监管原则。

  在人工智能技术发展最为领先的美国,有关人工智能监管的研究是由最高行政机构——总统行政办公室直接领导参与的。2016年,在组织了有关人工智能的多场研讨会之后,总统行政办公室和国家科技委员会(NSTC)于10月份发布了两份重量级报告:《国家人工智能研究发展战略规划》和《为未来的人工智能做好准备》。

  在《国家人工智能研究发展战略规划》中,包含了7个关键性战略,其中的第三战略:理解和确定人工智能在伦理、法律和社会领域的影响;第四战略:确保人工智能系统的安全和隐私保护,前瞻性地包含了有关人工智能在伦理、法律、社会影响、安全和隐私保护等领域的相关内容,包含了和人工智能监管相关的目标与原则。

  欧盟由欧洲议会牵头以立法研究的方式探讨人工智能和机器人监管的相关原则。在美国总统行政办公室发布人工智能规划和报告的同月,欧盟法律事务委员会向欧盟提交了《欧盟机器人民事法律规则》。该法律规则从机器人使用的责任规则、伦理原则、对人类自身和财产的伤害赔偿等多方面提出了对基于人工智能技术控制机器人的监管原则。

  作为即将脱离欧盟的英国,也在人工智能监管领域开始独立的研究。2017年2月,英国下议院科学技术委员会向多位英国顶尖的互联网与人工智能领域的专家发出邀请,希望其对于“决策中的算法”给出自己的专家意见。4月26日,科学技术委员公布了收到的正式回复,并将以此作为基础开展人工智能监管的研究。

  公平和准确难平衡

  从美国、欧盟和英国的研究结果和形成的文件、决议与规则来看,目前在人工智能监管方面形成公式的挑战主要来自公平性、透明性和责任认定等三方面。

  首先是公平性。对于人工智能算法来说,任何对于输出,也就是预测值有贡献的信息都应该作为输入变量参与到人工智能算法的计算中。但在现实社会中,并不是所有与结果相关的信息都可以被接受。

  2014年以来,美国多个州的犯罪执法机构都依靠一个名为COMPAS的人工智能系统预测过往有犯罪记录的人员再次犯罪的可能性,并以此数据作为是否允许罪犯减刑提前回归社会的决策依据之一。2016年6月,COMPAS系统被第三方调查机构ProPublica质疑其预测结果对黑人罪犯有明显的歧视。

  按照ProPublica提供的数据,在各个预测再次犯罪的评分水平上,白人与黑人均保持相似的再次犯罪概率。

  但从整体结果看,在其他输入条件与白人罪犯基本类似的情况下,COMPAS人工智能预测模型仍然会倾向于把黑人罪犯判别为会再次犯罪。其中的一个重要原因是有关黑人的记录远多于白人的记录。这一点是COMPAS人工智能预测模型无法改变的。

  这个结果引起了媒体和社会的争议。单纯基于人种、肤色、文化、信仰乃至生活习性的差异,人工智能系统基于算法就给予不同的评判和对待,这对于公平是一种事实上的漠视。那么未来在人工智能技术广泛进入人类社会的时候,各种小众人群都有可能由于个体差异遭受来自“模型的歧视”。

  这显然是现代社会的文明准则所不能接受的。这也是监管部门首先要解决的问题——模型的公平性。

  目前可行的折中方法是,限制种族、肤色、年龄、性取向和其他生物与生活习惯等特征被作为输入变量参与到人工智能算法的构建,以避免这些有可能造成“模型的歧视”的变量最终影响模型的预测结果。

  应该认识到,人工智能模型的公平性和准确性是一个跷跷板,如何让这个跷跷板取得平衡并与现代社会的公平价值观取得一致,目前还没有一个最佳答案。

  找不到问题所在

  其次是透明性,也被称为可解释性。在现有的人工智能技术发展路径下,成熟的人工智能算法或许永远都是一个“黑盒子”——外界无法得知内部的运行机制,只能够通过对输入和输出数据的解读来了解其能够达到的效果,并推测其内部计算机制的构成。

  目前科技界主流的看法都认为人工智能模型缺乏透明性,而且这一点不会随着技术发展而彻底改变。那么以往通过企业透明披露产品和系统信息以便政府监管的做法在人工智能领域是行不通的。

  举个例子,传统汽车是由车身、发动机、变速箱、刹车系统、电子控制系统等多个部件组成。每个部件也都可以拆解成为具体的零件。任何一个产品问题都可以归结到具体零件上,并针对其提出改进意见。

  但对于自动驾驶汽车,人工智能系统作为一个整体完成最终的控制动作,一旦发生人工智能系统的错误操作,除了明显的传感器故障,我们无法清晰定位问题原因,也不会立即明确该如何调整系统。

  目前通用的做法是猜想故障原因,并用场景还原的方式提供与错误操作时类似的数据输入,并观察输出结果。在捕捉到错误输出后,通过提供修正错误的训练数据集,逐步完成对人工智能系统的调整。最终还是要在反复测试的情况下确认人工智能系统已经完成了针对此错误的修正。

  由于人工智能算法的非透明性,监管部门就无法从人工智能算法本身入手提出管理要求,因为人工智能系统的提供商自己都无法清晰解释算法的核心工作机理。所以,最终的监管要求就会从基于原理和结构管理转而基于最终结果管理。也就是说,不管白猫黑猫,抓到老鼠就是好猫。

  非透明性决定了未来人类在监管人工智能系统时永远要面临着“黑盒子”带来的不确定性。而这一点,也给责任认定带来天然的障碍。

  谁来承担责任

  对于责任认定的探讨研究,目前是最少也是最困难的。对于一般的机械电气设备,由于设计缺陷、材料质量或其他产品质量所导致的人身财产损害,设备制造商将承担主要甚至全部责任。

  而对于人工智能系统控制的设备,由于其在算法透明性和可解释性方面的困难,监管部门几乎无法从算法本身去认定是否包含设计缺陷,也就无法就算法本身的设计去进行责任认定,这为监管带来了非常大的困难。

  有意思的是,欧盟在其2017年2月投票通过的《欧盟机器人民事法律规则》中,提出了考虑给予机器人以特殊的法律地位,即电子人的概念。也就是说,未来法律体系中将会存在一个不同于自然人、法人、动物等的另一法律实体,其能够独立存在,享有自己的权利并承担相应的义务。对于由自身引起的第三方人身财产伤害,电子人将会被认定承担一定的责任,并作出赔偿。

  如果电子人的概念未来被现有的人类社会广泛接受,那么其造成的影响就不局限于人工智能监管本身,而将深深影响到未来社会的各个方面。

  除了公平性、透明性和责任认定之外,人工智能系统还会大量替代现有的人工岗位,从而对未来的劳动力市场产生巨大的影响。由此而衍生的社会就业冲击和对人类技能要求的改变还会影响更多的方面。

  2017年2月,微软公司创始人比尔?盖茨在接受媒体采访时表示,应该通过对机器人征税,来筹集资金,以帮助被自动化所取代的工人进行再培训。

  欧盟在2月份投票通过《欧盟机器人民事法律规则》时,也同时否决了一项收取机器人税的建议。欧盟的这次否决并不能说明欧盟对于机器人税的最终态度,只是因为目前机器人还不具有人工智能,也没有对人类工作岗位形成大规模替代。并且现在开征机器人税对人工智能技术的快速发展和创新会有明显的负面影响。

  在《欧盟机器人民事法律规则》中,法律事务委员会呼吁成立一个专门负责机器人和人工智能监管的欧盟机构,负责就技术、伦理、监管等问题提出专业知识,并管理人工智能发展出现的问题,以便支持欧盟内部各成员国和企业更好的抓住人工智能发展的机遇,并应对发展过程中产生的挑战。

责任编辑:郭一晨 SF160

  除了干货,就是走私货!——扫描二维码关注新浪杂志官方微信,专注深度报道。

杂志精选

热门推荐

相关阅读

0