就在刚刚,云计算一哥亚马逊云科技,在大模型这件事儿上搞了波大的——
亚马逊CEO Andy Jassy亲自站台re:Invent24,发布自家新款AI多模态系列大模型,名曰Amazon Nova。
而且是一口气涵盖文本对话、图片生成、视频生成,甚至直接吐露一个小目标:
整体而言,Amazon Nova系列中的所有模型,均以功能和尺寸来划分。
先来看下新版尖端基础大模型的“文本对话篇”,一共包含四个杯型:
在现场,Andy也晒出了Amazon Nova在CRAG、BFCL、VisualWebBench和Mind2Web等Benchmarks上取得的分数。
从成绩中不难看出,其在检索增强生成(RAG)、函数调用和智能体应用方面具有较好的性能。
据悉,前三者已经上架亚马逊云科技的“模型工厂”Amazon Bedrock,而Premier版本则将于2025年第一季度推出。
目前也有一些实测已经流出,例如给Amazon Nova Pro一句Prompt:
啪的一下,结果就出来了:
再如让Amazon Nova Pro理解下面这个合并在一起的视频:
它给出的答案是:
接下来,就是“非文本生成篇”,一共包括两款。
Amazon Nova Canvas,主打的是图像生成,用官方的话来说,是达到了“State-of-the-art”(最先进)的水平:
至于视频生成模型,名叫Amazon Nova Reel,给定一张图片和一句话,即可让它动起来:
而接下来Andy的一番话,直接让现场不淡定了。
正如我们刚才提到的,Andy已经放出了话,Amazon Nova即将呈现出来的态势是万物皆可生成。
值得细细品味的一点是,亚马逊云科技在生成式AI时代中,先前发布自研大模型并不算最吸睛的那一批。
虽然此前也发布过Amazon Titan大模型,但模态上也仅限于文本,更多的精力还是聚焦在了像Amazon Bedrock、Amazon Q这样的平台和应用。
而这次,亚马逊云科技却一反常态,以厚积薄发之势把主流模态全面覆盖,甚至一句“Any-to-Any”彰显其雄心。
为何会如此?
纵观整场发布会,透过亚马逊云科技CEO Matt Garman的全程介绍,或许可以把答案总结为——
实力是一直有的,只是现在客户有需求了。
这又该如何理解?我们继续往下看。
先看实力。
作为云计算一哥,算力是亚马逊云科技的看家本领之一。
与传统云服务厂商不同,其自主研发并优化的专用芯片和数据中心,包括Graviton和Nitro等专有服务器主机,为实时计算提供支持。
而这一次,从芯片到服务器,基础设施上一系列的更新动作,可以分为三大板块来看——
计算(Compute)、存储(Storage)和数据库(Database)。
在计算层面上,亚马逊云科技先是宣布Amazon EC2 Trn2实例正式可用。
EC2 Trn2实例采用了第二代Trainium 芯片(Trainium2),与上一代Trn1实例相比,性能提升显著。具体来说:
此外,Trn2实例在性价比上比当前基于GPU的EC2 P5e和P5en实例高出30-40%。
每个Trn2实例包含16个Trainium2芯片,192 vCPUs,2 TiB的内存,以及3.2 Tbps的Elastic Fabric Adapter (EFA) v3 网络带宽,这比上一代降低了高达 35% 的延迟。
针对更高性能需求,亚马逊云科技同时推出了Trn2 UltraServer。
这是一种全新的超大规模计算产品,每台UltraServer包含64个Trainium2芯片,并通过高带宽、低延迟的 NeuronLink互连实现了卓越的性能。
这使得Trn2 UltraServer成为训练超大规模基础模型(如生成式 AI、LLM 等)的理想选择。
NeuronLink是亚马逊云科技专有的网络互连技术,它能够将多台Trainium服务器组合成一个逻辑上的单一服务器,连接带宽可达2TB/s的带宽,而延迟仅为1微秒。
它的设计特别适合分布式深度学习任务,在网络通信上的优化有助于显著缩短训练时间,提升资源利用率。
用官方的话来说就是:
在现场,苹果也来为亚马逊站台,机器学习和人工智能高级总监Benoit Dupin表示:
除此之外,在芯片层面上,亚马逊云科技发布了AWS Trainium3芯片预览版,预计于2025年正式推出。
据悉,Trainium3将采用3纳米工艺制造,提供两倍于Trainium2的计算能力,并提升40%的能效。
在计算(Compute)之后,便是存储(Storage)上的更新。
我们都知道,在数据分析和大数据领域,处理和查询大规模数据集的能力至关重要。
而传统的数据查询方法在处理海量数据时,常常导致性能瓶颈和管理复杂性,影响了企业的数据驱动决策能力。
为此,亚马逊云科技专门推出了Amazon S3 Tables。
Amazon S3 Tables提供了一种新的存储方式,专为表格数据设计,支持使用Amazon Athena、Amazon EMR 和 Apache Spark等流行的查询引擎进行轻松查询。
S3的表存储桶是它的第三种存储桶类型,与现有的通用存储桶和目录存储桶并列;可以将表存储桶视为一个分析仓库,用于存储具有不同模式的Iceberg表格。
与自管理的表格存储相比,S3 Tables可以实现高达3倍的查询性能提升和10倍的每秒事务处理能力,同时提供全托管服务的操作效率。
除此之外,元数据(Metadata)也变得越发重要,例如电话里面有很多照片,正是因为通过元数据储存数据,现在可以实现用自然语言很快找到这张照片。
基于这样的需求,亚马逊云科技推出了Amazon S3 Metadata的预览版。
Amazon S3 Metadata提供了一种自动化、易于查询的元数据管理方式,这些元数据几乎实时更新,帮助用户整理、识别和使用S3数据进行业务分析、实时推理应用等。
它支持对象元数据,包括系统定义的详细信息(如大小和对象来源)以及自定义元数据,允许用户使用标签为对象添加产品SKU、交易ID或内容评级等信息。
而这些元数据同样也存储在S3 Tables之中。
在计算、存储之后,便是基础设施的第三大板块——数据库(Database)。
有意思的一点是,Matt在现场分享了一张“OR”还是“AND”的图,表示企业在选择数据库时普遍遇到的艰难抉择——跨区域一致、高可用性、低延迟,往往只能3选2。
而亚马逊云科技此次给出的答卷是,都可以有。
这就是新型无服务器分布式数据库Amazon Aurora DSQL,旨在解决传统数据库在扩展性和性能方面的挑战。
Aurora DSQL结合了传统关系数据库的强一致性和NoSQL数据库的分布式扩展能力,提供了以下几个关键优势:
以上便是亚马逊云科技此次在基础设施上的发力了。
如果说把基础设施的三大板块视为三块积木,那么接下来,亚马逊云科技在模型层和应用层方面添加了第四块积木——推理(Inference)。
推理是生成式AI工作流的核心,它指的是将已经训练好的模型应用到新数据上,进行预测、生成或推断。
Matt在会上强调:
而Amazon Bedrock作为亚马逊云科技在模型层的一项AI平台服务,先是与我们上述的基础设施在推理上保持了同步。
换言之,Inferentia和Trainium芯片提供的推理的硬件优化,用户可以通过Amazon Bedrock便捷访问这些资源。
而至于Amazon Bedrock本身,这次也迎来多项能力的升级。
首先就是模型蒸馏(Model Distillation),能够自动化创建针对特定用例的蒸馏模型。
主要是通过从大型基础模型(教师模型)生成响应,并使用这些响应来微调较小的基础模型(学生模型),从而实现知识转移,提高小模型的精确度,同时降低延迟和成本。
其次是多智能体协作(multi-agent collaboration)。
在需要多个智能体处理复杂任务的场景中,管理这些智能体变得具有挑战性,尤其是随着任务复杂性的增加。
使用开源解决方案的开发者可能会发现自己需要手动实现智能体编排、会话处理、内存管理等复杂操作。
这也正是亚马逊云科技在Amazon Bedrock上推出多智能体协作的出发点。具体特点如下:
最后,也是更为重要的一点,便是防止大型语言模型幻觉导致的事实错误的功能——自动推理检查(Automated Reasoning checks),这是Amazon Bedrock Guardrails中新增的一项功能。
这种新的防护措施,旨在通过数学验证来确保LLMs生成的响应的准确性,并防止幻觉导致的事实错误。
自动推理检查使用基于数学和逻辑的算法验证和推理过程来验证模型生成的信息,确保输出与已知事实一致,而不是基于虚构或不一致的数据。
与机器学习(ML)不同,自动推理提供了关于系统行为的数学保证。
据悉,亚马逊云科技已经在存储、网络、虚拟化、身份和密码学等关键服务领域使用自动推理,例如,自动推理用于正式验证密码实现的正确性,提高性能和开发速度。
在性能方面,Bedrock还推出了低延迟优化推理,由此,用户可以在使用最先进的大模型基础上,还享受卓越的推理性能。
值得一提的是,Llama 405B和Llama 70B低延迟优化版本,在亚马逊云科技上展现出超越其他云提供商的出色表现。
针对开发者和企业,亚马逊云科技在应用层上的代表作便是Amazon Q了。
针对越来越多的企业寻求从本地数据中心迁移到云的痛点,亚马逊云科技在Amazon Q Developer上推出了多项新功能。
其中较为引人注目的就是Transformation for Windows .NET Applications,这项功能使得企业能够更快速地将.NET应用程序迁移到AWS,同时还能够显著降低迁移成本。
Amazon Q为.NET应用程序提供了自动化迁移工具,能够识别应用程序中可能存在的不兼容问题,生成迁移计划,并且自动调整源代码,确保平滑过渡到云端。这种自动化迁移大幅提高了工作效率,减少了人为干预。
通过将应用程序从Windows迁移到Linux,企业能够节省高昂的Windows许可费用,降低TCO(总拥有成本)。
Matt指出,使用Amazon Q的企业能够节省多达40%的许可成本。
而且迁移速度比传统手动迁移快了四倍,大大减少了系统迁移的停机时间和风险。
除了Windows应用的迁移,亚马逊云科技还推出了Amazon Q Developer Transformation for VMware Workloads功能,专为运行在VMware上的企业工作负载设计。
通过这一工具,亚马逊云科技可以帮助企业将本地的VMware环境迁移到云平台。
应用层之外,还有诸如将AI和分析做结合的产品——Amazon SageMaker。
它作为一个可以帮企业加速AI应用的开发、训练和部署的数据科学平台,今天也正式步入了“下一代”。
新一代SageMaker的核心是SageMaker Unified Studio。
这是一个单一的数据和AI开发环境,它整合了Amazon Athena、Amazon EMR、AWS Glue、Amazon Redshift、Amazon Managed Workflows for Apache Airflow (MWAA)以及现有的SageMaker Studio中的工具和功能。
其次是Amazon SageMaker Lakehouse,可以统一Amazon S3数据湖、Amazon Redshift数据仓库和第三方及联合数据源。
在看完本届re:Invent所有内容和实力之后,亚马逊云科技在生成式AI时代的发展路径其实也就比较清晰了——
从客户的真实业务需求出发。
上文种种内容的更新,都是基于“客户的服务出现了什么问题”,包括计算、存储、数据库上的瓶颈,包括客户在模型上的选择,再包括应用上的迁移服务等等。
洞悉了背后的实用主义逻辑,也就不难理解,亚马逊云科技为何选择在这个时间节点上发布一系列多模态大模型,还是因为客户有需要。
这种需要,具体而言,就是客户在模型上的选择,毕竟“没有一个模型可以一统天下”,每个模型都有自己所擅长的领域。
但亚马逊云科技所做的,是利用自己在基础设施、工具/模型和应用三个层面的深耕和实力,给客户多提供了一个“快、好、省”的选项。
回顾亚马逊云科技的起步,似乎这一点从未变过。
正如Matt在大会上回忆的那样:
而这种反馈也进一步推动了亚马逊云科技的发展,也有助于理解如何更好地支持创业精神。
因此,Matt在大会中还宣布了一个重磅消息:
本届re:Invent共计6万人参与,来感受一下这个热情、这个feel~
参考链接:
[1]https://www.aboutamazon.com/news/aws/amazon-nova-artificial-intelligence-bedrock-aws
[2]https://aws.amazon.com/blogs/aws/amazon-ec2-trn2-instances-and-trn2-ultraservers-for-aiml-training-and-inference-is-now-available/
[3]https://aws.amazon.com/blogs/aws/new-amazon-s3-tables-storage-optimized-for-analytics-workloads/
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)