此次Open AI使用成本的大幅下降,很有可能来自于模型架构的调整。3月2日,Open AI在官方博客宣布,此次Open AI开放的ChatGPTAPI模型是Gpt-3.5-turbo。这与ChatGPT目前使用的是同一种模型。价格为0.002美元/1ktokens,GPT-3.5模型达芬奇版本为0.02美元/1k tokens,使用成本下降90%。回溯GPU的发展历程,1)人工智能算力核心来源于GPU,2010年英伟达发布的Fermi架构,是第一个完整的GPU架构。其计算核心由16个SM(StreamMultiprocesser)组成,每个SM包含2个线程束(Warp),16组加载存储单元(LD/ST)和4个特殊函数单元(SFU)组成。2)2016年的Pascal架构,英伟达开始往深度学习方向演进。在SM内部,除了以往支持单精度的FP32 CudaCore,还增加了支持双精度的DPUnit,而DPUnit实际上是FP64的Cuda Core。3)从Cuda Core到Tensor Core,通过精简业务模块,满足低精度输出要求,进而节省成本。2017年以后,引入了张量核Tensor Core模块,用于执行融合乘法加法。其中两个4*4 FP16矩阵相乘,然后将结果添加到4*4 FP16或FP32矩阵中,最终输出新的4*4 FP16或FP32矩阵。我们认为此次Open AI成本的大幅下降,很有可能来自于模型架构的调整。
ChatGPT成本仍有降低空间,我们认为ChatGPT使用成本的下降或将是打开产业应用市场的拐点。1)我们认为此次成本的下降可能来自于对算法算力以及GPU的优化。包括业务层的优化,降低延迟和重复调用;模型层优化,去掉作用不大的结构等等;量化优化,kernel层优化,编译器层优等等。2)主导的变化:让以前高精度CUDACore为主要的运算降低到可以以Tensor Core为主要的模型去跑,这样的话就可以大幅降低使用成本。3)往后看我们认为这种优化会持续不断进行,即使现在成本降低90%,但是随着Open AI技术的迅速迭代,展望未来还有进一步下降的空间,目前这个阶段可以认为已经看到初步应用的拐点。
建议关注:OpenAI产业进展、研发进展提速,我们认为相关模型比国内领先,海外更快做好准备;成本优化成功,和搜索引擎在数量级上可以进行初步比较,我们认为海外产业链这个时点有充分逻辑,可以撬动下游需求和生态发展,所以海外业务占比越高的企业,撬动力更高。1)出海产业链(海外业务占比高):推荐福昕软件、建议关注昆仑万维、万兴科技。Chat GPT降价对于行业未来发展有提振作用,对大规模商用有促进作用,对AI产业链拉动作用强。2)AI大模型:建议关注360、拓尔思、推荐科大讯飞;3)AI供应链:建议关注海天瑞声、中兴通讯、推荐中科曙光、海光信息;4)英伟达产业链:建议关注天孚通信、鸿博股份;5)百度产业链:建议关注宇信科技、汉得信息。
风险提示:国际关系发生变化;政策监管出现变化;技术更新不及预期。
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)