道德人工智能的伪憧憬

2020年08月24日16:03    作者:姆兰博  

  意见领袖丨Project Syndicate

  本文作者:马切伊·库泽姆斯基(Maciej Kuziemski)哈佛大学贝克曼·克莱恩互联网和社会研究中心研究员

  用“野生”算法测量、量化和优化生活的方方面面引起了越来越多的公众担忧和监管者的日益关注。但应对之道中颇有些不切实际的想法,比如那些打着“道德的人工智能”旗号的措施。

  不难理解,公共机关希望减小某些人工智能应用的弊端,特别是那些与加强监控、歧视少数群体和不当治理决定有关的应用。但资金短缺的政府同样也很想采取一切能够在提供公共服务、执法和其他方面带来效率增进的科技。这两项当务之急之间的僵局让争论的主题从法律和决策转向了宣传行业内自愿的最佳实践和道德标准。

  目前,领衔推动这场运动的是公共机构众多,包括欧盟委员会和美国国防部等,其主题主要围绕“算法公平”的概念展开。其思想是,人类判断的不完美性课以克服,社会纠纷可以解决,只要有自动化的决策系统即可,在这套系统中,输入变量(数据集)和处理(算法)被优化用来体现某些定义模糊的价值观,如“公平”和“信誉”。换句话说,重点不在于政治,而是调教过的机器,它们能够去除现有数据集的偏误或创造新的数据集。

  用科技调和客观性,从而掩盖深层次政治冲突不是什么新鲜事。但是,随着自动化速度的加快,我们不能忽视这种做法。决策者越是专注于推广自愿的人工智能道德,就越有可能采用转移视线、大事化小和不民主的应对方式。

  看看转移视线的风险。道德的人工智能意味着设计不知来自何处的最佳实践数据集,然后到处以不同的设置复制。也许,通过某些多边论坛,一群表面上相当多样化的专家集会准备起草以合乎道德的方式开发和管理人工智能的全球指引。他们会拿出什么呢?

  哈佛大学贝克曼·克莱恩互联网和社会研究中心(Berkman Klein Center for Internet and Society)最近发表了一份评论,讨论了到目前为止的广泛讨论中所出现的50项“人工智能原则”。作者们发现,对话总是集中在大约八个话题——隐私、问责、安全、透明度和可解释性、公平和无差别对待、科技的人力控制、职业责任以及人类价值观的推广。有两项重大议题被忽视:结构性权力不对称和即将到来的气候灾难。这些遗漏表明,为道德的人工智能制定框架的专家是一个相对封闭的圈子,基本上不太可能提供能抓住时代精神的建议。

  追寻道德的人工智能还可能影响公共部门自身的监管能力。比如,欧盟委员会成立高级别人工智能专家小组后,受到了各种批评,这表明该小组可能影响了欧盟委员会自身领导该问题的信誉。甚至该小组的一名成员、美因茨大学的托马斯·梅特辛格(Thomas Metzinger)都将其最终的建议指南批驳为“道德粉饰”的例子。类似地,算法观察组织(AlgorithmWatch,一个游说集团)也质疑 “值得信任的人工智能”能不能作为一个目标,因为应该授权谁(或者什么)来定义这种东西仍不清楚。

  在这里,我们可以看到,初衷良好的人工智能发展方向研究如何适得其反。只要对话仍然是含糊的,就没人能反对信誉思维。但等到决策者开始凌驾于几十年来的科学、技术和社会(STS)、负责任的研究和创新(RRI)、人机交互(HCI)和其他相关领域的成就,情况很快就会发生变化。最终,根本无法形成可用于各层次治理的建议清单,原因很简单——道德的人工智能一开始就不是可行动的政策目标。

  最后,将太多注意力集中在人工智能道德上有可能会导致其发展脱离民主控制。许多多边和高等教育机构被公司所把持,人工智能例外论大行其道。人工智能需要独特的标准的观点迫使对话从公共性质变为专家、特权阶级和全球技术官僚的闭门讨论。

  对私人部门而言,人工智能例外论能达到一石二鸟之效:科技公司既避免了现行宽松管制状态发生任何变化,又能打造有社会责任担当的形象。而对普通老百姓而言,结果就没有那么美好了。认为围绕人工智能已经形成了价值观共识的错误观念成为了政治竞争——即民主的本质——中先入为主的观念,最终会加剧社会紧张,进一步削弱政府信誉。一旦道德最佳实践被正式规定,那么自动化的系统将把持客观知识的许可证,尽管它们并不会受到任何有意义的监督。它们的决定将等同于法律,扼杀一切细微差别、情境和微调。

  在进入新的十年之际,很显然人工智能决策需要打破自愿到的框架的陈词滥调,转向粗放的、视情景而定的监管和执法工具,并通过民主程序立法。马里兰大学的弗兰克·帕斯奎尔(Frank Pasquale)解释道,算法问责有两波,第一波集中在改善现有系统,而第二波提出了关于权力和治理的根本性问题。

  放眼未来,决策者应该抛弃人工智能例外论,从其他科技采用和扩散的例子中汲取经验教训。他们还必须强化现有法律的执法,允许各种公民社会组织和其他相关利益方参与讨论至今仍被列为禁区的价值观冲突相关问题。但愿新出现的人工智能伦理专家封闭圈子可以打破,为受到人工智能和自动化破坏作用影响最大的群体——政府有保护和服务责任的终端用户和公民提供空间。

  (本文作者介绍:报业辛迪加(Project Syndicate)被称为“世界上最具智慧的专栏”,作者来自全球顶级经济学者、诺奖得主、政界领袖,主题包括全球政治、经济、科学与文化塑造者的观点,为全球读者提供来自全球最高端的原创文章、最具深度的评论,为解读“变动中的世界”提供帮助。)

责任编辑:张文

  新浪财经意见领袖专栏文章均为作者个人观点,不代表新浪财经的立场和观点。

  欢迎关注官方微信“意见领袖”,阅读更多精彩文章。点击微信界面右上角的+号,选择“添加朋友”,输入意见领袖的微信号“kopleader”即可,也可以扫描下方二维码添加关注。意见领袖将为您提供财经专业领域的专业分析。

意见领袖官方微信
分享到:
保存  |  打印  |  关闭
网络文学盗版一年损失近60亿 侵权模式“花样百出” 香港诊所被曝给内地客人打水货疫苗 给香港人用正品 铁路部门下发买短补长临时办法:执意越站加收50%票款 优速快递董事长夫妻双双身亡 生前疑似曾发生争执 澳大利亚房价暴跌:比金融危机时还惨 炒房团遭赶走 五一旅游前10大客源城市:上海北京成都广州重庆靠前 五一假期国内旅游接待1.95亿人次 旅游收入1176.7亿 华为正与高通谈判专利和解 或将每年付5亿美元专利费 游客在同程艺龙订酒店因客满无法入住 平台:承担全责 花650万美元进斯坦福当事人母亲发声:被录取后捐的款