现如今,人工智能正以前所未有的速度和深度改变生产生活方式,成为推动经济社会发展的重要动力。据IDC预测,到2030年,人工智能将为全球经济贡献19.9万亿美元,推动2030年全球GDP增长3.5%。纵观2024年全年,AI的热度不但没有消散,反而又一次迎来了令人瞩目的爆发式增长,接下来,就让我们一起回顾这不平凡的一年。
1 AI硬件强势崛起,数据中心蓄势待发
众所周知,算力是人工智能三要素中至关重要的组成部分,作为数字经济时代的关键生产力要素,算力的赋能作用日益凸显,已成为驱动各行业变革的核心力量。但不可否认的是,算力的强弱很大程度上受到底层硬件的限制,而今年的AI硬件也呈现出百花齐放的态势。
GPU:依然是最重要的算力基础
虽然GPU最初是为了处理图形和图像而设计的,但随着人工智能的兴起,其强大的并行计算能力被发现非常适合处理AI 所需的大量数据和复杂计算。AI算力则是衡量计算机处理人工智能任务的能力,它直接影响着AI 模型的训练速度和性能表现。
根据TechInsights的数据,2023年全球全球数据中心GPU出货量达到385万颗,其中英伟达出货量376万颗,市占率超过了97%,今年虽然没有具体的数据,但仅在上半年,英伟达就销售了价值近420亿美元的AI和HPC GPU,而全年其运算GPU的销售额可能超过900亿美元。
虽说英伟达在今年并没有如大家期待中那般推出新的旗舰GPU芯片B300/GB300,但我们仍然可以从已经曝光的数据中一窥其恐怖的实力:根据已曝光的消息,B300的显存规格会进一步提升到288GB,同时引入了LPCAMM内存模块设计,并具备高达1.6Tbps的带宽。
至于其市场表现究竟如何,就得等到明年才能见分晓了。
CPU:并未被AI时代遗忘
提起AI训练和AI推理,很多人都会想起更擅长处理大量并行任务的GPU,却在一定程度上忽略了CPU的价值,事实上,目前的AI应用实际上可以分为两大类,一类是基于GPU的重负载训练应用,另一类则是对延迟和能效更加敏感的轻应用,对这类应用而言,通过使用CPU混合精度即可实现的推理吞吐量反而能带来更高的灵活性和更具优势的TCO,以英特尔在9月份推出的至强6性能核处理器为例,该处理器专门为AI、数据分析、科学计算等计算密集型业务而生,并且在性能、内核密度、内存和I/O创新都有十分明显的突破。
特别是在内存带宽方面,至强6900P系列处理器拥有12通道的内存,内存规格支持DDR5 6400或者MRDIMM 8800,相比上一代实现了大幅提升,这使得至强6900P系列处理器的每个核心拥有了更加充裕的内存带宽,更加有利于核心性能的释放,从而在生成式AI、深度学习、机器学习、推理训练等场景中获得更好的表现。
不但如此,至强6性能核处理器内置的AMX加速器也在此前支持BF16和int8数据类型的基础上引入了FP16的数据精度,这也为AI推理和训练提供了更多精度上的选择。
可以看到,CPU不仅没有被边缘化,反而持续升级以适应这些变化,并做出了重要改变。
存储:“意料之外”的赢家
AI时代下,算力的重要性毋庸置疑,但数据存储作为AI的“第三支柱”,同样也在AI的全生命周期内发挥着重要作用,尤其是在生成式AI爆火的大背景下,包括图像、视频、音频在内的非结构化数据会不可避免地呈现出爆炸式增长的态势,根据IDC的调研结果,预计到2028年,每年产生的数据总量会接近400ZB。
在数据量不断增长的趋势下,数据存储技术对于人工智能数据周期中不同阶段基础设施和工作负载的容量、性能、能耗效益以及成本效益都至关重要,具体来说,在人工智能数据周期的原始数据存档,内容存储环节,需要从各种来源安全高效地收集并存储原始数据,以用于训练模型,这一阶段收集的数据质量和多样性至关重要,为后续的所有阶段奠定了基础。由于查找和收集数据需要大容量存储,所以在此阶段,可以经济高效地存储巨量规模化数据,且具备更低TCO的大容量企业级HDD(eHDD)通常是建立深度内容资源库的理想选择。
而在AI模型训练阶段,模型会在高性能的超级计算机平台上进行反复训练,而训练效率在很大程度上取决于最大化GPU利用率和专门的高性能存储。由于这一阶段的工作负载对计算性能的要求极高,因此最理想的存储方案是高性能、低容量、以计算为目的的企业级SSD。
因此,无论是HDD还是SSD,都在今年迎来了自己的“高光时刻”。
在不久之前,Solidigm推出了122.88TB的D5-P5336QLC SSD,是目前行业里容量密度最高的QLC SSD产品,相比于传统的HDD JBOD或者替换TLC SSD JBOD的方案可以实现4-8倍空间占用的节约,同时在总功耗、散热、电力等方面都有非常出色的表现,因此十分适用于内容分发网络、通用服务器混合负载、对象存储等工作负载。
西部数据则针对高性能存储需求推出了首款企业级PCIe Gen 5.0解决方案:SanDisk DC SN861 NVMe SSD,该产品不仅提供U.2、E1.S和E3.S三种规格,并支持NVMe 2.0和NVMe MI 1.2c规范以及OCP 2.0标准,充分确保了可扩展性和灵活性,容量最高则达到了16TB,非常适合各类数据密集型应用。
至于希捷,则在今年推出了Mozaic3+(魔彩盒3+)平台,该平台使用与PMR硬盘基本相同的材料组件,大幅增加容量,使数据中心能够显著降低存储采购和运营成本。目前,基于该平台的硬盘单碟容量已经达到了3TB以上,未来几年内单碟将达到4TB+和5TB+,整体容量也会达到50TB,可以高效地满足TCO成本和规模化扩展等方面的需求。
当然,除了上述硬件之外,FPGA、ASIC也成为了AI计算领域的黑马,预计在明年,随着技术的进步和市场的发展,它们也会发挥越来越重要的作用,由于篇幅有限,笔者在这里就不再赘述。
2 混合式AI解决方案加速落地,大模型迎来新一轮洗牌
毫无疑问的是,AI技术展现的巨大潜力和价值正在推动企业加速拥抱AI技术,根据联想此前发布的《2024年全球首席信息官报告》,全球61%的企业首席信息官(CIO)认为证明AI投资的投资回报率(ROI)极具挑战性。随着人工智能等技术不断渗透到个人与企业的真实应用场景,AI下半场从技术突破进入到落地应用的阶段,混合式人工智能已成为AI价值落地的必然路径。
不过要注意的是,由于混合式人工智能的设计、部署、管理和维护要更加复杂,因此,提供全面产品以及解决方案和服务的能力就显得十分重要。而这也是联想、英特尔、IBM、华为等科技巨头最为擅长的。
以联想为例,在今年10月份,联想与英伟达共同推出了联想人工智能快速启动、联想人工智能应用库、人工智能数据和技术基础架构等在内的全新混合式AI解决方案及服务,能够以高效、便捷和专业的方式,充分帮助企业实现AI技术落地到业务中的商业价值。
具体来说,基于NVIDIA AI Enterprise软件平台的联想人工智能快速启动服务可以助力企业组织在数周内证明个人AI、企业AI和公共AI平台用例的商业价值;联想人工智能应用库则集合了诸多企业通用领域及垂直行业的AI智能体,可为企业营销、IT运维、法务、客户服务等多个业务场景提供AI解决方案;人工智能数据和技术基础架构解决方案与服务则能帮助企业评估其平台的AI准备情况,并能通过切实可行且经济高效的措施,来优化和搭建其所需的数据、应用和云技术等IT基础设施。
基于联想全栈AI的战略布局,其设备和基础设施作为全新混合式人工智能解决方案的重要载体,也正加速与AI的融合。联想正不断扩展其AI终端产品组合,通过包含PC、服务器、工作站等一系列强大的AI设备和基础设施组合,与解决方案的紧密结合,使企业能够快速实现强大、负责任且可持续的人工智能。比如在AI基础设施方面,联想将自研的海神(Neptune)液冷技术不断迭代扩展至更多服务器设备,并将支持NVIDIA领先的加速计算平台,助力人工智能新时代企业实现更高的能源效率和可持续发展。
行业落地方面,联想携手贝智基金,在香港爱培学校率先设立香港首个AI辅助学习中心,通过人工智能等技术惠及更多有特殊教育需求的儿童。全新成立的AI辅助学习中心配备了联想AI硬件及计算机视觉、自然语言处理和机器人流程自动化(RPA)等在内的混合式AI技术,帮助确保贝智基金的治疗师和教育工作者能够为数量持续增长的特殊教育需求儿童提供及时、定制化的支援。
在联想AI辅助学习中心,原先繁琐和容易出错的人手数据收集、记录及回应评分已经实现完全自动化,通过实时数据收集及跨学科分析,生成个性化的学习计划,使治疗师们更专注于与特殊教育需求学生的直接互动、及时干预、建立更深层次的师生关系。这种高度自动化的流程也让志愿者能够通过接受培训成为课堂导师,并由经验丰富的ABA治疗师远程指导和监督。这一定程度上也缓解了专业治疗师资源匮乏的问题。
通过整合联想的语音、物体、手势识别技术与贝智基金的环境和学生情绪识别传感器,治疗师能够提供更精确的学生课堂表现评估,并从庞大的ABA数据库中选择最合适的后续课程任务建议。此外,联想不仅提供了边缘服务器和AIPC来支持ABA治疗的AI模型运行,还提供智能白板作为交互式教学辅助工具,提升治疗师的教学互动性和吸引力。
据统计,在AI技术的加持下,这次合作使得爱培学校的整体治疗效率显著提升了116%,个性化的教育培养模式也从一对一拓展到一对多,从而让更多的特殊儿童得到受益。
而大模型则在今年迎来了新一轮的洗牌,根据中国信通院的数据,截止今年7月,全球AI大模型数量就达到了1328个(包含同一企业、同一模型的不同参数版本),美国的AI大模型数量位居第一位,占比44%,位居第二位的中国大模型数量占比为36%。
尽管中国和美国在大模型领域呈现出双强格局,但客观来看,中国依然处于追赶状态,尤其在底层技术上,中国科技公司相对薄弱,并且从2023年至今,几乎所有的头部科技公司都在强调“预训练模型”,也就是通过长期堆算力和数据,将模型训练成接近通用的基座大模型。
作为这两年“最烧钱”的生意,大模型今年也在“商业化”的强需求中迎来了新一轮的洗牌,以字节跳动推出的豆包大模型为例,虽然最初推出是在2023年,但在豆包大模型推出以后,字节跳动又紧锣密鼓地发布了Doubao-pro、Seed-TTS、Seed-ASR、Seed-Music、视频生成模型、视觉理解模型等多项重磅成果,在语言能力、多模态理解与生成、模型推理、代码生成等方面不断提升。到2024年12月,豆包大模型通用模型能力已经全面对齐GPT-4o,在FlagEval模型评测的“对话模型”榜单中,豆包-pro32k版本已经位列第一。
当然,更值得关注的是价格,豆包视觉模型比行业平均价格低85%,单价为0.003元,这也让视觉理解模型首次进入“厘时代”。
而亚马逊云科技则是在不久前的re:Invent大会期间推出了Amazon Nova系列模型,包括文生文模型Nova Micro,低成本多模态模型Nova Lite,在准确性、速度和成本间实现平衡的Nova Pro、可处理复杂推理任务的Nova Premier、新一代图像生成模型Amazon Nova Canvas以及新一代视频生成模型Amazon Nova Reel。从而向客户提供一个能够支持规模化推理的平台,以充分应用亚马逊云科技的推理能力,并帮助客户用好自己的私有化数据,实现性能、安全和成本方面的平衡。
而这两天最受瞩目的莫过于DeepSeek V3的发布,其在超低训练成本的前提下实现了和GPT-4o、Claude 3.5相当的性能水平,堪比小米加步枪战胜了飞机大炮,根据官方论文,在架构方面,DeepSeek V3采用了创新的负载均衡策略和训练目标,同时在后训练方面,DeepSeekV3引入了一种创新方法,将推理能力从长思维链模型(DeepSeek R1)中,蒸馏到标准模型上。这在显著提高推理性能的同时,保持了DeepSeek V3的输出风格和长度控制。因此,通过在算法、框架和硬件方面的协同优化,DeepSeek V3的训练成本变得非常经济,实现了令人惊叹的成果。
今年已经接近尾声,但大模型的洗牌仍未结束,对众多科技公司而言,在基础大模型上的新投入会逐渐转向实际应用和商业化,价格战等抢占市场的动作还将会持续很长时间,届时能够留下来的才是最后的赢家。
结语
进入AI时代,AI带来的经济价值正逐步被验证,充分利用AI技术的力量实现新增长是企业在未来竞争中脱颖而出的关键。无论是底层的基础设施还是上层的行业应用,今年来自各个科技公司的更新和发布都在为我们带来惊喜,但这并不意味着AI的发展已经趋于成熟,如果说2024年的这些突破是一首交响乐,那么我们现在听到的,也仅仅是序曲的前几个音符,更宏大的主旋律才刚刚拉开帷幕。
(9340928)
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)