浪潮信息发布源2.0基础大模型,千亿参数全面开源加速生成式AI产业发展

浪潮信息发布源2.0基础大模型,千亿参数全面开源加速生成式AI产业发展
2023年11月30日 18:01 财经网

11月27日,浪潮信息发布“源2.0”基础大模型,并宣布全面开源。源2.0基础大模型包括1026亿、518亿、21亿等三种参数规模的模型,在编程、推理、逻辑等方面展示出了先进的能力。

当前,大模型技术正在推动生成式人工智能产业迅猛发展,而基础大模型的关键能力则是大模型在行业和应用落地能力表现的核心支撑,但基础大模型的发展也面临着在算法、数据和算力等方面的诸多挑战。源2.0基础大模型则针对性地提出了新的改进方法并获得了能力的提升。

算法方面,源2.0提出并采用了一种新型的注意力算法结构:局部注意力过滤增强机制(LFA:Localized Filtering-based Attention)。LFA通过先学习相邻词之间的关联性,然后再计算全局关联性的方法,能够更好地学习到自然语言的局部和全局的语言特征,对于自然语言的关联语义理解更准确、更人性,提升了模型的自然语言表达能力,进而提升了模型精度。

数据方面,源2.0通过使用中英文书籍、百科、论文等高质量中英文资料,降低了互联网语料内容占比,结合高效的数据清洗流程,为大模型训练提供了高质量的专业数据集和逻辑推理数据集。为了获取中文数学数据,浪潮信息清洗了从2018年至今约12PB的互联网数据,但仅获取到了约10GB的数学数据,投入巨大,收益较小。为了更高效地获得相对匮乏的高质量中文数学及代码数据集,源2.0采用了基于大模型的数据生产及过滤方法,在保证数据的多样性的同时也在每一个类别上提升数据质量,获取了一批高质量的数学与代码预训练数据。

浪潮信息高级副总裁、AI和HPC产品线总经理刘军认为,在数据方面,浪潮采用的数据来源、数据增强以及合成方法数据质量方面的工作,减少了互联网的公开数据集,增加了百科、书籍、期刊等相对比较高质量的数据,同时引入了代码数据和数学数据,从而增强了模型的数理逻辑能力。

算力方面,源2.0采用了非均匀流水并行的方法,综合运用“流水线并行+优化器参数并行+数据并行”的策略,让模型在流水并行各阶段的显存占用量分布更均衡,避免出现显存瓶颈导致的训练效率降低的问题,该方法显著降低了大模型对芯片间P2P带宽的需求,为硬件差异较大训练环境提供了一种高性能的训练方法。

刘军认为,在生成式AI的带动下,人工智能计算力的技术和应用趋势发生了较大的变化。在三个方面产生了巨大的格局之变,即计算范式之变,产业动量之变以及算力服务之变。

源2.0作为千亿级基础大模型,在业界公开的评测上进行了代码生成、数学问题求解、事实问答方面的能力测试,测试结果显示,源2.0在多项模型评测中,展示出了较为先进的能力表现。

源2.0采用全面开源策略,全系列模型参数和代码均可免费下载使用

代码开源链接

https://github.com/IEIT-Yuan/Yuan-2.0

论文链接

https://github.com/IEIT-Yuan/Yuan-2.0/blob/main/docs/Yuan2.0_paper.pdf

股市回暖,抄底炒股先开户!智能定投、条件单、个股雷达……送给你>>
海量资讯、精准解读,尽在新浪财经APP

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 12-07 安培龙 301413 --
  • 12-04 索宝蛋白 603231 --
  • 12-04 丰茂股份 301459 --
  • 11-30 无锡晶海 836547 16.53
  • 11-30 永达股份 001239 12.05
  • 新浪首页 语音播报 相关新闻 返回顶部