2024世界人工智能大会|大模型价格战谁会受益

2024世界人工智能大会|大模型价格战谁会受益
2024年07月06日 20:45 北京商报

从讳莫如深到开诚布公,大模型价格战开打两个月,从业者主动或被动地参与其中,7月4日—6日2024世界人工智能大会期间,大模型价格战依然是热门话题,但参与各方强调的不再是价格本身,而是一针见血到商业模式、可持续性……

“近两个月,通义千问开源模型下载量增长2倍,突破2000万次”“当你处在激烈竞争的环境中,需要让业务效率比同行更高、成本比同行更低”“价格战由技术驱动,但不能过度”,7月6日,2024世界人工智能大会闭幕,科技大厂、创业公司的大模型卡位赛不会停,没有人肯定哪种商业模式跑得通,熬过了价格战当打之年,或许就有了答案。

应该但“不正常”

5月初,人工智能公司DeepSeek高喊性能与GPT-4一致但价格只有百分之一的口号,打破了此前大模型“加量不加价”的默契。不久后,国内大模型公司各个变身价格“屠夫”,媒体将夸张的降价比例放进标题,从分到厘最后免费,一如网约车、团购大战那般轰轰烈烈。

“大模型价格走低是非常正向的事,因为就应该降低。”MiniMax创始人兼CEO闫俊杰在2024世界人工智能大会上表态。自2024年开始,MiniMax对偏生产力的场景更加重视,与B(企业)端客户走的也越来越近,闫俊杰则频繁出现在各种场面,“对于大部分企业来说,大模型降价的好处是会有更多用户,在线时长、流量,产生更大价值。基于流量和价值找到一种好的商业模式”。

根据摩尔定律,集成电路上可容纳的晶体管数量大约18—24个月增加一倍,性能将提升一倍。不管摩尔定律在大模型行业是否仍有效,技术升级——成本下降的真理不变。

“价格下降是技术驱动,技术越来越好,成本越来越低,但过度就不好了”,智谱AI CEO张鹏话锋一转提到了迈克尔·波特的价值链理论。

“真正的价值链应该是逐级的,大家往同一件事不断添加自己的价值,对外提供更好的服务,给自己创造更大的价值。相应地,大家创造的价值应该反向再传递回来,大家各自得到自己的那部分,这是一个正常的、合理的价值链。”他认为,“价格战阶段,用户肯定是得益的,但是不长久,这不是一个正常的商业逻辑。”

有关商业模型

在其他场合,张鹏也表达过对价格战的担忧。月之暗面创始人兼CEO杨植麟也把价格战和价值联系在一起,在他看来,大模型商业模式建立在用于推理的算力显著超过训练的算力,C(用户)端的推理成本显著低于获客成本,那时可能会产生新的商业模式,不会像现在在B(企业)端打价格战。

创业公司和大公司、大公司和大公司之间,对商业可持续性的思考或许是两套逻辑,显而易见的区别是大模型to C是否免费,以及通过什么方式收费。

不变的是,每个大模型入局者都希望将自己和生态伙伴织成一张网,互补也好抱团也罢,把to C、to B的通道搞得多多的。

不久前,闫俊杰、杨植麟作为合作伙伴为钉钉站台,执行生态战略的钉钉宣布对所有大模型厂商开放,在通义大模型的基础上,和MiniMax、月之暗面等6家大模型厂商达成合作。钉钉将根据各家大模型的特点,基于场景选择不同的合作方,比如和月之暗面基于长文理解和输出能力,探索教育类应用场景。

从供应侧到需求侧的传导很快。参与2024世界人工智能大会对话环节前,御风未来创始人兼CEO谢陵收到一家国外客户的需求——“石油管道漏油识别怎么解决”。御风未来需要跟人工智能相关企业合作,客户对飞行器最看重的就是AI功能,“我们肯定希望AI的价格降下来,(这样)我们能为更多的客户解决问题,能卖更多的飞机”,谢陵说自己是价格战的受益者。

继续争

大企业则通过各种数据较劲。2024世界人工智能大会期间,阿里云CTO周靖人透露,降价后大批客户在阿里云上直接调用大模型,近2个月,通义千问开源模型下载量增长2倍,突破2000万次,阿里云百炼服务客户数从9万增长至23万,涨幅超150%,客户包括一汽、微博、完美世界等。

几乎同时,百度智能云隔空秀肌肉:大模型日均调用量突破5亿次、二季度环比增长150%;累计服务15万家企业用户、累计帮助用户精调了2.1万个大模型;帮助用户开发出55万个AI原生应用。百度还宣布文心大模型4.0 Turbo(ERNIE 4.0 Turbo)面向企业客户全面开放,输入输出价格分别是0.03元/千Tokens、0.06元/千Tokens。文心旗舰款模型ERNIE 4.0和ERNIE 3.5大幅降价;ERNIE Speed、ERNIE Lite两款主力模型持续免费。

有关开源闭源的争论也没有偃旗息鼓的迹象。“很多人混淆了模型开源和代码开源的概念”,百度创始人兼CEO李彦宏开了话头,他认为模型开源只能拿到一堆参数,还要在做SFT、安全对齐,即使是拿到对应源代码,也不知道是用了多少比例、什么比例的数据去训练这些参数,无法做到众人拾柴火焰高。

“如果开源想能力追平闭源,它需要有更大的参数规模,这意味着推理成本更高、反应速度更慢。很多人拿开源模型来做改款,以为这样可以更好地服务自己的个性化需求,殊不知这就变成了一个孤本模型,既无法从基础模型的持续升级中获益,也没办法跟别人共享算力。”李彦宏分享了自己的论据。

周靖人继续强调阿里云的开源立场,“两年前,我们在世界人工智能大会上发布通义大模型系列,当时我们公布,通义核心模型将开源开放。到今天,通义千问已经实现真正意义上的全尺寸、全模态开源,拉平了开源、闭源模型之间的差距”。

北京商报记者 魏蔚

海量资讯、精准解读,尽在新浪财经APP

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 07-15 绿联科技 301606 --
  • 07-11 科力装备 301552 --
  • 07-01 乔锋智能 301603 26.5
  • 06-26 键邦股份 603285 18.65
  • 06-24 安乃达 603350 20.56
  • 新浪首页 语音播报 相关新闻 返回顶部