投资者提问:
根据贵方介绍,WiNGPT采用通用GPT架构、60亿参数,实现了从预训练到微调的医疗大语言模型全过程自有研发。然而对于通用模型,百亿参数是入场券。GPT-3和LaMDA均显示,100亿参数以下的模型计算能力几乎为0。不知道贵方60亿参数如何应对技术迭代?
董秘回答(卫宁健康SZ300253):
您好,感谢您的关注。之前已介绍过,卫宁健康WiNGPT不同于通用大模型,我们的大模型聚焦于垂直领域-医疗,因此所涉及的训练数据也小于通用大模型。所谓“有多少数据就用多大模型”,我们从几亿到上百亿参数模型进行了实验,是平衡成本与精度的选择,而非一味追求模型的体量。未来我们可以根据场景和产品的需要进行灵活的增减。
免责声明:本信息由新浪财经从公开信息中摘录,不构成任何投资建议;新浪财经不保证数据的准确性,内容仅供参考。
炒股开户享福利,送投顾服务60天体验权,一对一指导服务!
![](http://n.sinaimg.cn/finance/0/w400h400/20230207/cf6f-831cfaa461f051659fcd2e77b4abe68b.png)
![](http://n.sinaimg.cn/finance/cece9e13/20200514/343233024.png)
海量资讯、精准解读,尽在新浪财经APP
VIP课程推荐
加载中...
APP专享直播
热门推荐
收起![新浪财经公众号 新浪财经公众号](http://n.sinaimg.cn/finance/72219a70/20180103/_thumb_23666.png)
新浪财经公众号
24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)