设为书签 Ctrl+D将本页面保存为书签,全面了解最新资讯,方便快捷。 您也可下载桌面快捷方式。点击下载 | 新浪科技 | 新浪首页 | 新浪导航

AI离全社会普及,只差一个计算中心?

2021-07-09 11:39:35    创事记 微博 作者: 华商韬略   
视频加载中,请稍候...
谁成为AI的领导者,谁将统治世界!谁成为AI的领导者,谁将统治世界!

  欢迎关注“新浪科技”的微信订阅号:techsina 

  文/张静波

  来源:华商韬略

  过去十年,人工智能(AI)大爆炸,并第一次走进普通人的生活。

  但蓬勃发展的AI却碰到一个空前棘手的问题:自2012年以来,AI算力需求6年增长30万倍,远超摩尔定律!

  人类现有的基础设施,已跟不上AI算力需求的增长。未来,该怎么办?

  一百多年前,人类也曾面临同样的难题。

  1866年,德国西门子发明自激发电机,开启了人类的电力时代。

  此后十几年,虽然很多企业纷纷采用电能这种新的动力,但一台电机只能供应一栋房子或一条街道的现状,制约了电力的进一步普及。

  直到1882年,爱迪生在珍珠街建起了第一个中央发电厂,照亮了整个曼哈顿。

  与一百多年前相比,今天的世界正发生翻天覆地的变化。

  自1946年第一台计算机诞生以来,算力逐渐成为新的电力,推动人类社会不断从物理世界向数字世界迁移。

  在此期间,人类对算力的需求不断增长。尤其2012年以后,随着深度学习等算法的突破,AI第一次走进普通人的生活。

  一方面,AI的应用场景越来越多,从语音、目标识别,到智慧工厂、智慧城市……乃至战争中的武器。

  另一方面,AI模型的大小、算法参数也呈几何级增长,鹏城实验室最新发布的“鹏程.盘古”预训练大模型,拥有惊人的2000亿个参数!

  这样的大模型,以及越来越广泛的应用场景,对AI算力的需求呈现爆炸式的增长。

  几年前,谷歌AI负责人杰夫·迪恩(Jeff Dean)曾预言:“我们真正需要的是超过现在100万倍的计算能力,而不仅仅是几十倍的增长。”

  即便如此大胆的预测,也还是显得太保守。

  事实上,从2012年到2019年,短短七年,人类对AI算力的需求增长了30万倍,平均每100天就会翻倍,远超摩尔定律。

  与此同时,AI算力的实际增长却有限,需求和供给之间形成一个巨大的鸿沟。

  为了填补这个鸿沟,一种新的AI基础设施诞生了,它就是:人工智能计算中心。

  在此之前,人类建过许多大型的计算中心。比如,我们熟知的超算中心,集中了一个国家或地区的最强算力,主要用于科研。

  还有阿里、华为等云厂商兴建的云计算中心,基于云平台,向全社会提供大数据的计算、存储等服务。

  它们虽然也对外提供AI算力,但毕竟不是主业。

  而人工智能计算中心专为AI打造,主要用于AI模型的开发、训练和推理,能够为全社会提供AI所需的专用算力。

  这种新的AI基础设施,自诞生之日起,就成为全球主要AI大国的角力场。

  比如,美国投资18亿美金,计划在全国打造三个E级超算,其中一个的算力,超过目前全球十大超算的总和。

  德国早在2018年就推出国家级人工智能战略,并资助一批高校建设人工智能计算中心。

  中国也先后建成了深圳鹏城云脑和武汉人工智能计算中心。还有多个城市已开工或者正在筹建人工智能计算中心。

  在政府主导下,许多头部企业也纷纷下场。谷歌自研AI专用的TPU芯片,并通过云平台对外输出AI云服务。

  微软也宣布,斥资10亿美元,构建一个AI计算平台。

  在中国,阿里投入重金,建立超大规模机器学习平台。而华为,更是鹏城云脑和武汉人工智能计算中心背后的建设主力军。

  蓬勃发展的AI产业,无限放大了全社会对算力的需求。

  为了迈过这道鸿沟,全世界以政府主导、头部企业参建的模式,正掀起一场AI算力的军备竞赛。

  在人工智能计算中心出现前,人们是如何解决AI算力问题的呢?

  除了超算中心和云计算中心“兼职”外,更多靠企业自建。例如,谷歌早期就用GPU来加速。后来,为了训练AlphaGo,开发了TPU芯片。

  但像谷歌这样财大气粗的企业,毕竟是少数。更多的企业,缺乏足够的资金来搭建自己的AI算力。

  勉强搭起来,算力也有限。而且不同企业的算力,还分散在全国,各自为政。

  以这样的算力,很难训练出大模型,更别提GPT-3这种超级大模型。而后者,是推动AI技术不断进步、产业不断发展的关键。

  这有点类似于爱迪生修建珍珠街中央发电厂之前的情况。

  彼时,电力还属于少数有钱人或大企业的奢侈品,门槛高,难普及。直到爱迪生修建中央发电厂,改变了这一情况。

  未来,AI产业要想大发展,同样需要降低算力门槛。

  类似OpenAI那样,花1200万美元,训练一个GPT-3模型的事情,很少有企业或个人负担得起。

  解决的办法是,像爱迪生建中央发电厂一样,在各地集中建设AI基础设施,也就是人工智能计算中心,降低AI的算力成本。

  一个人工智能计算中心,就像一个电厂,通常包含机房,以及各种软硬件设施。

  比如,鹏城云脑就长这个样子:

  还有大名鼎鼎的谷歌TPU服务器机房:

  人工智能计算中心,一改过去AI算力分散的局面。

  在地方政府的产业政策引导下,通过集中建设,这种AI基础设施可将算力普惠地输出给全社会,包括企业、科研机构和高校。

  过去,训练一个大模型,动辄上千万美元。如今,企业和开发者,可按需租用算力,花小钱办大事,极大地降低了门槛,加速了AI创新。

  这一点,对于AI产业的繁荣,极为关键。

  就像电厂一样,人工智能计算中心首先是一个公共算力服务平台。

  但,光有算力还不够。电厂之所以是社会经济的发动机,背后是一个生态,包括上下游产业链、设备厂商和终端用户,等等。

  因此,人工智能计算中心除了是一个算力服务平台,还是一个AI产业聚集发展平台,能够聚合AI产业链上的各类公司,包括算法公司、数据处理公司、行业集成公司等,形成完整的产业闭环,促进和推动AI产业集群发展。

  此外,它还是一个应用创新孵化平台,通过开发者AI创新,与本地优势产业(如制造、医疗、交通、智能电动车等)相结合,让技术转化为产业价值,带动当地产业智能化升级。

  以武汉为例,库柏特的智能机器人在武汉人工智能计算中心的支持下,通过视觉处理算法创新,其机械臂每次抓取药盒的拍照时间,从过去200毫秒缩短至50毫秒!

  武汉市政府计划,到2023年孵化60个以上类似的AI深度应用场景,形成AI应用示范项目超过100个。

  人工智能计算中心也是一个科研创新和人才培养平台,为将来储备技术和人才。

  目前,经教育部批准设立AI本科专业的高校已达200余所。有了人工智能计算中心,这些院校可联合行业龙头企业,基于前者充沛的算力,开展技术研发和关键人才的培养。

  在深圳,鹏城实验室就依托“鹏城云脑Ⅱ”,聚集了31位院士和2000多名科研人员,使得深圳一跃成为国内AI人才高地。

  今天的中国,正在打造国家新一代人工智能创新发展试验区。

  人工智能计算中心通过“1个中心+4个平台”,形成一个完整的算力生态,彻底打通了“产”“学”“研”“用”全产业链,满足了国家和地方对人工智能产业发展的需求。

  从这个意义上讲,人工智能计算中心是我国发展人工智能产业的最佳路径。

  未来,小到手机、人脸识别,大到无人驾驶、工业机器人……人工智能计算中心将为全社会的智能化,提供源源不断普惠充沛的AI算力,从而托起中国经济的明天。

  先行一步的武汉和深圳,已经看到了这种希望

  在武汉,华为助力打造的人工智能计算中心,AI峰值性能可达100PFlops(1P相当于每秒1000万次浮点运算)。

  在深圳,基于华为Atlas 900集群的“鹏城云脑Ⅱ”可提供世界顶级算力,在最新一期IO500榜单中位居榜首,其全系统输入输出性能得分是排名第二的近20倍。

  武汉和深圳之外,包括成都在内,全国多个城市也在积极筹建人工智能计算中心。

  充沛的算力,给当地乃至全国经济注入了强劲的动力。

  从深圳到武汉,再到已开工的成都,中国在兴建人工智能计算中心的路上,再次展现了“基建狂魔”的本色。

  但同时,我们也要清醒地看到,在这个事关未来的AI基础设施建设上,我们还存在短板。

  过去十年,中国在目标识别等AI应用上,领先于世界。

  可当我们向上捅破天,低下头来建人工智能计算中心时才发现:与西方先进水平相比,自己在AI根技术上还有不小的差距。

  电厂的核心是发电机组,人工智能计算中心的核心是芯片。

  过去,无论超算还是云计算中心,多采用CPU+GPU组合。如今,人工智能计算中心加入了NPU等异架构处理器,以多样化算力,加速AI计算。

  NPU是一种AI专用芯片,可在电路层模拟人类的神经元和突触。与传统芯片相比,AI算力有数十上百倍的提升。

  下图对比了CPU、GPU和TPU(谷歌开发的NPU)的数据处理方式。

  NPU的这种大吞吐量,对于需要数据清洗、模型生成、训练和推理的AI计算来讲,优势尤其明显。

  美国排名第二的打车软件Lyft,自从用了谷歌Cloud TPU,也就是云上AI算力后,以前几天才能干完的活,现在几小时就搞定了。

  但无论CPU、GPU,还是NPU,国内企业在这些底层芯片上的积累,还比较薄弱。

  CPU、GPU几乎被英特尔、AMD和英伟达三家公司垄断。NPU相对好一些,华为有昇腾系列,寒武纪也开发了思元系列。

  而这,还只是硬件问题。

  软件方面,人工智能计算中心是一个算力多样化的平台,如何将众多异架构芯片放在一起还能相互兼容,需要统一的编程框架。

  当年,英伟达为了将图形处理芯片GPU用在通用计算上,开发了CUDA。如今,华为为了提高开发效率,设计了异构计算架构CANN。

  算法是AI的核心。

  全世界每天都在产生新的算法和模型,开发者不需要从头学习,但他们需要一个统一的AI算法平台和框架。

  目前,全球大多数开发者都选择了谷歌的TensorFlow和Facebook的Pytorch。

  国内企业最初在这个领域一片空白,后来才有了华为的MindSpore和百度的飞桨,但在开发者人数上,与对手还有不小的差距。

  有了芯片,有了编程平台和AI框架,再往上,就到了AI应用软件开发平台。

  在这一层上,国内企业实力不俗,阿里有PAI,华为有ModelArts,百度有AI Studio。开发者们在这些平台上,最终做出赋能千行百业的APP。

  根技术是AI的基石,只有根深,才能叶茂,才能从底层释放出充沛的算力,支撑起整个AI顶层应用的全面繁荣。

  这种从底层算力释放,到顶层应用使能的AI全栈能力,可以用下图一览全貌:

  从图上可知,谷歌无疑是AI能力最强也最全面的科技公司之一。在国内,拥有类似能力的企业屈指可数,华为算是一家。

  2017年,AlphaGo击败李世石后不久,俄罗斯总统普京曾告诫国内师生:未来,谁成为AI的领导者,谁就将统治世界!

  人工智能(AI),毫无疑问,已成为全球大国角力的主战场,并在某种程度上,决定了一个国家或地区未来的命运。

  早在2017年就发布人工智能国家战略的中国,将AI视为重大的战略机遇,并希望到2025年成为人工智能的世界领导者。

  为了实现这一目标,我们还有很多的事情需要做。这其中,最重要、最紧迫的事情之一,就是兴建更多的人工智能计算中心。

  从这个意义上讲,鹏城云脑和武汉人工智能计算中心的落成,也只是这场世纪大戏的开场白而已。

(声明:本文仅代表作者观点,不代表新浪网立场。)

分享到:
保存   |   打印   |   关闭