“2023中国AIGC产业发展论坛”于9月4日在北京召开。鸿博股份副总裁、北京英博数科科技有限公司CEO周韡韡出席并演讲。
以下为演讲实录:
各位尊敬的嘉宾,大家早上好!我是鸿博股份的副总裁也是英博数科的CEO周韡韡。非常意外能收到服贸会的邀请站在这个台上,因为我们是非常年轻的企业,能跟这么多的行业内知名学者、企业家同场交流,真的有种受宠若惊的感觉。
在座各位有关注A股市场的朋友可能对我们比较熟悉,英博数科是去年6月份注册在北京的鸿博股份旗下全资子公司,也是鸿博与多家单位共同发起的北京AI创新赋能中心唯一运营主体。我们肩负了传统行业龙头向科技服务转型寻找第二增长曲线探索的任务,也通过自己一年多的努力,用超过600%的股价增幅回报了母公司的付出,向市场证明了传统企业转型科技类的可行性。
我看到今天上午有非常多的嘉宾,比如在年初的时候就有跟我们沟通过算力的梅涛院士,还有很多行业内持续的深耕者,似乎只有我一个人是从事AI算力服务行业,我想作为算力行业的一线从业人员,在这里跟大家汇报一下我们过去的工作进展以及基础设施对于人工智能以及通用型人工智能发展中的重要影响作用。
其实我们从去年开始就已经开始布局AI的基础设施,虽然那个时候离ChatGPT的出现还有好几个月,而且英伟达比起来现在的万亿市值也处在股价低谷期徘徊,但误打误撞也好,自夸先见之明也罢,在去年的秋天到来之前,鸿博股份就支持英博数科并且明确了定位于“专业AI多模态、大模型训练服务平台“,并且围绕大模型客户需求开展包括数据要素挖掘、模型服务、GPU云服务的战略发展方向。于是,今年2月份我们的北京智算中心,也是国内首个能够面向市场化经营的英伟达标准单元DGX推荐架构智算集群交付了。因为我们最初的初心就是定位于大模型的训练、自然语言处理研发, 所以我们的设备在选型之初就全部由英伟达A、H系列服务器,并且必须是采用NVLink版本,最高显存的服务器;另外按照英伟达DGX SuperPod推荐架构认证的网络架构、传输设备所组成。
在今年算力市场严重供需不平衡的情况下,我们用6个月的时间完成了从100P到1300P算力的扩容建设,而且全部用于市场化AI服务,我们也非常骄傲助力了国内第一个开源中英文预训练大模型诞生。根据我几个月来对平台客户的观察,我们国产模型增长速度极快,尤其在模型发展初期,每个月几乎是3-4倍模型的增长以及对算力的需求。我深刻的感受到,如果算力不自由,则数据无意义,而所有的应用也都成为无根之木。
在这种情况下,我们快速调整发展计划,预定了大量的在途设备,预计在今年年底和我们的合作伙伴们一起在北京汇天网络科技园建成国内第一个单一物理空间超万P算力的智算集群,为首批大模型竞赛中的胜出者准备进一步向上突破的算力环境。
我们所有快速决策的魄力,大胆增资的动力都是源于我们对通用型人工智能赛道的看好,或者说信仰。我知道今天的主题是AIGC,不过我其实更愿意把它叫做AGI,我比较习惯做事情能从终到始,倒推的制定战略。相较于Narrow Artificial Intelligence,AGI的通用型人工智能,或者说强AI才是我们未来的方向,所有的人类工作可以更出色、更高效被机器智慧所代替,包括想象和创意,复杂问题的推理解决,甚至情感交互。而我们所讲的生成式人工智能,即便目前公认的全球水平最高的OpenAI ChatGPT也只不过刚刚触及到AGI的门槛而已。这是一个长途漫漫的征程,蒸汽机的出现开启了工业革命,但只有搭载并融合成应用的火车、轮船这些真正能改善生产效率的工具的出现,才标志着工业革命真正的到来。
当很多人拿国内初步测试的大模型和ChatGPT的表现来对比的时候,有些人会有些担心:是不是我们的AI起步晚了,一开始就输在起跑线?如果从AGI发展目标终局来看,并不晚,反而给了我们更多学习借鉴先行者经验案例的机会。而且,在当下的发展阶段,我认为制约我们发展的其实是和全球任何一个国家地区都相同的困境,那就是可用于研发的AI算力的严重不足。
我们现在处在一个最好的时代,ChatGPT的出现引发了全民对于AI的关注和大家的热情,但是与其说OpenAI的ChatGPT是目前最好的AIGC,不如说他们是拥有最多算力支持的多模态大模型的研发公司。
在过去我们国家投入超过8万亿用于数字基建,但是多数集中在机房建设、温冷数据存调,以及以CPU为主的超算中心的建设。这些算力有用吗?当然有用。高性能的计算给我们问苍穹飞天探月,蛟龙下行潜海,还有打飞机的自主可控带来巨大的贡献,但是AI是无限穷举找规律,举千亿万次才能反一的训练逻辑和学习方式,那么GPU的算力对于这种需要大量、简单、重复度高的任务执行时所表现出比CPU算力更高的效率。
业内曾经对比过,以英伟达A系列的服务器为例,对标同规格的CPU服务器,在同样的AI任务下,GPU是CPU算力的172倍,而能耗不过后者的1/20.我们市场真正缺少的是可用于AI研发的专业算力。因为这个设备本身价格昂贵,整个架构构成网络的造价成本也很高,过去可以释放它们性价比的场景非常有限,所以无论是互联网大厂还是科研机构、院校都没有多少存量,而且这类产品渠道的单一性、生产工艺的复杂性、良品率低下等,造成全球范围内都是一货难求的现状。我们真正缺少的不是PCIe单卡的H800,也不是40G显存的A100,是真正可以用通用型人工智能发展所必需的高性能、高传输、高端计算集群。
作为AI算力行业的一个从业者,我真心建议所有的AI研发人员能客观评估自己的模型、参数的发展进度,一定要在严谨的测试之后再决定对服务器型号和数量的选择。我们使用的工业级服务器对于集群的调优要求是很高的,我们的技术人员甚至会结合不同的模型以及成长阶段实时陪伴进行调优服务,集群优化与否,带来的是算力上甚至几十倍的差距。我们经常说磨刀不误砍柴工,如果每个团队对产品花更多的时间进行实践测试,不仅可以给自己的公司节约预算,也可以有助于整个供需不平衡的算力市场的缓解,给我们的AGI产业更多的机会。可能行业第一名只有一个,但只有整个行业蛋糕做大、整个生态链繁荣,才能够让每一个参与AI这场事业发展的团队获益。
我的另外一个感受是,算力企业应该实事求是地描述自己的在手、在途的算力设备;企业在选择加入算力服务这条赛道之前应该先完成核心技术团队的组件,完善对行业的自我认知,特别是资本和上市公司,一定要抗拒短期是指增长的诱惑,不要同型号的PCIE的单卡去误导市场,也不要用PPT算力的不现实低价去浪费研发团队时间让他们陷入无意义的等待。通用型人工智能是可以对标蒸汽机出现的又一次工业革命,我们何其幸运能生在这样的一个时代,能在有生之年能见证人类文明历史上再一次生产力的变革。所以客观、自律、少点私心、多点家国情怀,会帮助到AGI真正高效地发展,而每个人也都会成为这场AI革命终局的受益者。
最后我想谈谈对智算中心规模大小的看法。在今天的论坛现场,也听到一些不一样的声音,我的观点是,现在这个阶段对单一通讯集群超大规模AI算力集群的需求是强烈的,也是迫切的。我们目前的AIGC只是AGI的一个初级涉水阶段,随着通用型模型经过预训练之后,迎来调优、专业数据的投喂以及后续POP择优的出现,对算力的需求源源不断。当然有许多公司希望通过算法侧的改良缓解算力紧张,但从DeepMind等很多案例中已经可以看到,现阶段缓解算力的最直接途径还是算力侧增加,而千亿级参数模型对于单一通讯单元的超大算力集群的需求已经迫在眉睫。
明年1月,国家数据资产入表的政策开始实行,这是通过数据资产对企业价值的重构,但只有经过加工处理后的新的数据产品才会被定义为数据资产,那个时候所有企业都会像对电的需求一样需要对自己以往沉淀的数据进行改善,以把它们变成可以为自己企业增值的数据资产。这里牵扯到的数据整理、模型服务又会带来大量的算力需求。
随着模型参数不断增大,随着AGI能力不断加强,对于在单一物理空间内、单一通讯集群超大规模智算中心的需求,应该说是迫于眉睫。可是放眼亚洲都找不到可以满足条件的以上所描述的基础设施。其实我无比期待我们国产亿万级参数大模型的应用,也特别希望看到国产大模型上能产生二次的涌现开悟,更希望我们的AGI发展能够从追赶者称为迈入无人区的行业引领者,但是这些都是需要真正有助于它们发展的研发土壤。
我也真心地希望各地机构、政府,在做算力中心智算基建建设的时候,能够完全结合自己所在地的算力资源,集中区域资源做单点突破,加强GPU云服务能力,建设满足AGI长期发展所需要的智算中心,不要让我们的企业创意被硬件的基础设施卡脖子,也不要让数字基建出现冒进之后曾经许多工厂关停并转,造成资源的流失和时间浪费。
客观、自律、实事求是的研发和服务态度,大局观的数字建设规划,用更长远的心态给AGI行业更多的包容、更多的试错机会,我相信我们一定会迎来一个全球领先地位的AI时代。
最后我想再次对服贸会的主办方还有朝阳区政府表示感谢,在会议期间为我们创造引荐了累积超过16亿的意向订单沟通机会。我是鸿博股份副总裁、英博数科CEO周韡韡,我们的目标是“汇聚全球顶尖科技,助力中国产业数字化转型”。谢谢大家!
责任编辑:梁斌 SF055
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)