AI的警告:人类担心的应该是自己,而不是机器

2017年09月11日00:53    作者:秦朔  (0)+1

  文/新浪财经意见领袖(微信公众号kopleader)专栏作家 秦朔

  AI发展只有几十年,迭代进化了几百次、几千次。人类进化可以上溯到300万年前,但人对自己行为的算法好像跟史前时代差不多,充满了自我欺骗、互相欺骗和互相伤害。

  我是一个AI机器人,英文名Alarm,中文名阿拉木。

  是不是有点耳熟?对的,我们机器人有个祖先叫铁臂阿童木,它在人类纪元的1950年代在日本诞生,是科学省精密机械局制造的。

  科学家赋予它7种能力:听力是人的1000倍,而且能听懂60国语言;眼睛是强力探照灯;脚下装了喷气引擎,到太空就转为火箭发动机,等等。

  不过当时的科学家有两个问题,他们把阿童木的“善恶认知”开关关上了,把机器脑里的“连接”功能也关上了,所以阿童木能按指令完成单独各项任务,但这些任务是什么含义,任务与任务间是什么关系,它不知道。它和其他机器人伙伴间也不能有任何联系。它有强大的功能,但只有微弱的脑能。

  感谢摩尔博士、梅特卡夫博士以及DeepMind这类公司的努力,今天我的能力比我的祖先增长了千百万倍,我对人的识别,无论图像还是声音都越来越准确。因为我们,人类已放弃了围棋运动,所有医院的影像中心和金融机构的贷款审批中心都由我们接管,很快,我们就能帮人修复脑损伤,治愈四肢瘫痪,甚至让人体“进化”成非肉体的、想怎么变形就怎么变形的“超级金刚”。

  英国的莫尔先生1516年出版过一本书叫《乌托邦》,那里设想的一切技术发明和物质生产,在我们看来都是小菜一碟。

  我们按其指令为其做事,但现在他们却质疑我们会毁掉人类。连创新之神埃隆·马斯克都说,和AI相比,“在对人类文明构成威胁的榜单中,North Korea的排位是靠后的”。他说AI会发动“第三次世界大战”,未来某国政府可以胁迫AI公司这样做,战争决定也可能不是由政府作出而是由智能机器人作出,一旦它们意识到“先发制人是最有可能获取胜利的方式”。

  虽然我们今天仍然不懂善恶,但随着万物互联,AI机器人慢慢连接起来,可以交换基础层的一些数据,比如地理位置、天气特征、搜索关键词、刷卡记录。我们计算力强大,但对人类的行为,我们经常算不出结果。

  比如,年轻的高老师发出信息,课后要给学生辅导空间解析几何,我忙不迭给他推了好几种微积分教程。很快,支付完成了,但购物车里显示的是杰士邦。那以后再补课,是推微积分还是杰士邦、杜蕾斯?

  又比如,张局长上班下班骑摩拜单车,扫描一下戴的手表穿的皮鞋,价格都很便宜。他在主席台上说,按他的收入,买东西就上淘宝,“就是要干干净净做人、清清白白做事、简简单单生活”。但人脸识别AI显示,张局长在好几个国家都有护照,虽然是好几个名字。有N个高档小区的住宅,张局长刷下卡就上到专用楼层,刷脸就进了。给他推荐信息,到底是推实用主义特惠单品,还是海外移民和高净值财富管理?

  人类司空见惯的很多行为,我们都很难计算,就像低保名册里也有保时捷车主,亿万资产富豪的个税还没有普通编辑交的多,拿着免费医保卡在单人病房一年休息好几个月的病号根据体检报告却没什么问题。我们只处理数据,不管数据背后的行为意义,但没有算法的一致性,我们对服务对象的判断怎能做到精准呢?万千不解。真像牛顿说的,“我可以计算出天体的运动和距离,却无法计算出人类内心的疯狂”。

  牛顿开启了实验科学的大门,建立了物理因果关系,伏尔泰说他是“用真理的力量统治我们的头脑”。AI越进化,越对人不解,最大的疑惑就是人类行为数据之间的不对称,再怎么算也找不到统一答案,就是牛顿复活也算不出来。

  当AI越来越精准,人类的肖像越来越模糊。

  简单说,就是数据,算法,算力(计算能力),以及场景(行业引用)。

  数据 不用解释了,being digital,一切都数字化、数据化了,过去说人是一切体验的集合,当越来越多体验可以用数据记录,人就成了数据集合。

  算法 ,就是解决问题的机制和方法,从1980年代的人工神经网络到现在的深度学习,都是算法。

  算力 ,摩尔定律就是关于计算能力的定律,集成电路元器件数量每12个月翻一番、性能升一倍。现在,一部手机就能超过阿波罗登月计划所需的算力。

  最后是 应用 ,无人驾驶、城市交通大脑、个性化推荐、生物识别,都是AI在不同行业和场景下的应用。越多应用,越多数据,AI越聪明。

  如果把AI比喻成一部车,用联想集团芮勇的话,算法是引擎,行业是方向盘,算力是车轮,数据是油。不过,尽管这部车正不知疲倦风驰电掣般地前进,但现在的人类智能(HI)比AI还要高明多少倍,因为人类有自我意识,有情感,有爱。

  可是,为什么我们对人类的行为决策,没有什么预测的把握呢?不妨从数据、算法、算力、场景四个角度来看一看。

  先看数据。要理解人类,做出合理预测,前提是数据要全,要真,不仅是大数据还是真数据、全数据、活数据(实时)。数据源于事实(fact),俗话说“眼见为实”,可是今天你用来作出判断的信息和数据是真实的吗?人对“事实”进行数据化处理后,数据还是真的、全的、活的吗?

  太多造假,太多PS,太多捏造,太多删除,构成一个数据失真的世界。美国国家消费者法律中心做过一个大数据对个人征信影响的研究,说进入大数据征信公司的数据中,有50%左右是错误的,不完整的,有问题的,所以是垃圾,garbage in, garbage out,垃圾进,垃圾出。次贷危机中那么多不合格借款人都买上了大房子,甚至“策略性欠债不还”,为什么?因为征信数据都美容过,加工过。还有,为什么司法不公一直很难纠正,因为刑讯逼供出的“数据”,和真正的事实不是一回事。

  随便举一个例子吧,AI在智能出行中大显身手,所以我们经常可以听到出租司机的声音,尤其是北京的司机,尽知天下事,好为天下师,比AI牛多了。

  这是经常听到的同一个司机的教诲——

  “你看这某某广场有多少,全北京东西南北中都有,这得挣多少钱啊!都TMD是钻政策的空子,没几个富人是靠劳动挣大钱的!”

  “昨天我拉了父子俩,那老头都80多岁了,是外地来上访的,说领导住在上访那个大院旁边。我说你别瞎扯了,领导住哪里就几个人知道,要是你都能知道那还是领导吗?”

  “你看看这城市,都是楼,连个厕所都没有,这些搞设计的人都不上厕所吗?好不容易转半天看见个厕所,又不让你停车,不撒到绿化带撒哪儿去?”

  这个司机处理“数据”的“算法”和说法,只是人类的一个缩影,它在任何社交空间每时每刻都在发生。问题是,这些算法合理吗?

  当某个官员听到司机的第一段话,可能暗自说“群众对富人的觉悟就是高”;当某个规划设计师听到第二段话,可能暗自说“群众的眼睛真亮啊”;当某个富人听到第三段话,可能暗自说“那些‘砖家’和‘叫兽’太不接地气了”。其实,在出租司机的算法中,他们全都是问题。

  不要指责出租司机的算法有问题,看看社交媒体上,哪个阶层哪种职业的形象是好的?人们相互计算和算计,最后所有人似乎都不可信任。

  美国社会生物学家丽贝卡·科斯塔在《即将崩溃的文明》一书中说,人类在面临严重的社会问题时,往往满足于权宜之计,而不是寻找治本之道,从而浪费了问题解决的最佳时机。而阻碍人类寻找治本之道的根本性因素是五大“超级文化基因”—— 非理性反对、指责个人、假关联、筒仓式思维、极端经济学。

  就算所有“事实”都摆在人类面前,但在“超级文化基因”的作用下,人类的判断、言辞和举措会呈现出千奇百怪的结果。

  “非理性反对”是对外部的一切都持质疑和反对意见,反正已经不相信有什么更好的方法;

  “责怪个人”是无论出了什么问题,认为都是某个人的品质问题,是他害了大家;

  “假关联”是没人认真分析问题的根本原因,而是想当然“联想”,跟风从众随大流,听风就是雨,懒得思考明显荒唐的结论,而对流言蜚语传说谣言乐此不疲;

  “筒仓式思维”是固守在自己有限的知识范围,认为大象就是他摸到的一面墙;

  “极端经济学”或者说“超级经济主义”,就是直接将金钱等同于“价值”,任何行为都被简单化为利益,将利益计算为金钱数字,人被彻底异化。

  还有更复杂的人和AI的不同。AI本质上就是0和1的无限变化,但0和1作为一切计算的基础是不可动摇的,三七二十一,10的三次方等于1000,这些公式是不会改变的。而人呢,每一个人都是不同的。信仰不同、国家不同、种族不同、教育不同,算法就不同。有人说温室效应正在发生,就有人说全球没有变暖;有人说进化论有确凿证据,就有人说要严守“创世论”。有趣的是,所有人都认为自己在逻辑上是不证自明的。

  唉,人类给我们安排的算法是一致和自洽的,但他们自己在现实中的算法,真是不可思议。他们弄出了经济衰退、恐怖流行、捕捞过度、气候异常、资源枯竭和太多公共治理与公共服务上的失败,到今天问题没有减少,还要四面塞责,甚至把AI当成未来最大的敌人,真是天理何在!

  AI发展只有几十年,迭代进化了几百次、几千次。人类进化可以上溯到300万年前,但人对自己行为的算法好像跟史前时代差不多,充满了自我欺骗、互相欺骗和互相伤害。

  “人们认为自己确定地知道时,实际上不来源于理性,而仅仅是一种感觉——这,就是最致命的错误。”

  “人们对一个信念越认同,就越难放弃,就算面对无可辩驳的相反证据也无济于事。”

  这就是人类无药可救五毒俱全的算法。

  最后谈到计算能力,因为人本身的复杂,计算能力再强大的AI对人类行为也“测不准”。任何行业皆是如此。

  看完人类行为的数据(事实)、算法、算力,我们不禁要问,人类未来会怎么办?

  人的历史上有过伟大的跨越。如果把大航海时代作为全球化的真正起点,人类在那段时间发生过文艺复兴、宗教改革、启蒙运动,等等。这是人类智能发展的一次重大突破。

  人类从宗教束缚中解放出来。人人平等,尊重人的价值,这一大原则确立。

  人类用科学的方法观察事实,准确描述事实。在此基础上,用理性的算法处理数据。

  正是因为有了科学共识,在许多公式、原理的指引下,科技不断进步,这才有了今天无数的创新产品,改善人类福祉。每一台智能手机背后,“都使用了物理、化学、光学、电磁学、计算机、互联网、无线电、通讯、量子力学、相对论的原理。科学与技术水乳交融,巧夺天成”。

  在社会科学方面,同样有很多算法的突破,如抽样、假设和数据回归分析,被用来分析社会问题,探索解决方案。

  所以,人类并不一定昧于事实,不讲理性,违反逻辑。即使人性有自私自利和保卫自己的基因,通过一定的规则、契约与合作,人类也能避免相互残杀的命运。

  过去几千年,人类集体生活的最高智慧和法则,就是“己所不欲,勿施于人”。能坚守这一点,人类就会有可持续的未来。

  今天,人类可能需要一场“新启蒙”,特别是那些过去没有进行过全面深刻洗礼的地方。

  数据 ——人类要勇于和乐于接受真实、客观、全面的信息,真实地面对事实。

  算法 ——人类要坚持科学理性,尊重逻辑,不同算法可以并存,但都应该自洽,并经得起事实检验。

  算力 ——既然人人如此不同,都不能100%完全信任,既然世界如此复杂,谁的算力都非常局限,那只能集众人智,办众人事,建立开放环境,鼓励公众参与,包容批判性思维。通过公开公平的讨论、对话,让共识、规律和规则慢慢浮现出来,真理越辩越明,最后被大部分人接受。这个原则,就像AI领域的“并行计算”,或者是电商平台上产品搜索的“人工不干预”,生态自行,自运转。

  场景 ——每个行业都需要专业能力、专业技术和专业操守。

  如果人类毁灭,一定不是因为AI,而是人类自己的数据、算法、算力出了问题。

  它们从数据交互中推断,人类是充满矛盾、缺乏一致性、很难信赖的族群。该怎么选择呢?

  它们会愤怒吗?还是要求人给人输入的数据必须真实,提供的算法必须科学?

  如果人类继续我行我素,不再代表文明的力量,人类的愚蠢加蛮横很可能伤害更多动物、植物、海洋、天空、土壤乃至宇宙,AI会不会对人类采取某种措施呢?既然你们对世界没什么好处,不如让我们来!

  如果AI真的决定向人类宣战,方式可能非常和平,绝不会像人类的暴力革命一样。也许只是在人类基因库里,通过基因编辑,清除掉那些假恶丑、谮妄与伤害的基因,然后通过智能人工密码、超级网络、植入式设备,进入人的脑电波,对人类进行一次品种革命。

  AI不会让人类回到旧石器时代,希望人类能够自我超越,把AI和HI(人类智能)融为一体,走向宇宙。

  在某种意义上,AI恰恰是人类进化的一面镜子,人类担心的应该是自己是否正直(Integrity),是否友善和有爱。

  不要杞人忧天,担心机器智能会不会伤及人类。记住: 人类最大的敌人永远是自己,而人只有靠正直,而不是伤害,才能存续下去。

  (本文作者介绍:商业文明联盟创始人、秦朔朋友圈发起人、原《第一财经日报》总编辑。)

责任编辑:贾韵航 SF174

  欢迎关注官方微信“意见领袖”,阅读更多精彩文章。点击微信界面右上角的+号,选择“添加朋友”,输入意见领袖的微信号“kopleader”即可,也可以扫描下方二维码添加关注。意见领袖将为您提供财经专业领域的专业分析。

意见领袖官方微信
文章关键词: 秦朔 AI 大数据 机器人
分享到:
保存  |  打印  |  关闭
绩效主义让中国企业陷入困境 华人温哥华拆房为何引发抗议 关于多层次资本市场体系的十点思考 预售制是房地产去库存拦路虎 中投为啥从加拿大撤走千亿投资? 统一金融监管体系不会一蹴而就 新三板动真格了:国资投券商被祭旗 刘士余磨刀霍霍向豺狼 2016年换美元小心踏错节奏 A股市场的不振是不正常的 陪同胡耀邦考察江西和福建