DeepSeek研究员称R1训练仅用几周 接下来还有大招

DeepSeek研究员称R1训练仅用几周 接下来还有大招
2025年02月05日 09:49 CNMO

DeepSeek研究员称R1训练仅用几周 接下来还有大招

  【CNMO科技消息】近期,科技界最为热议的词汇非“DeepSeek”莫属。据悉,DeepSeek-R1在数学、代码自然语言推理等领域的表现,已经能够与OpenAI的GPT-1正式版相媲美,其火爆程度席卷全球。而最近,DeepSeek的研究员在线透露了一个消息:R1的训练过程仅仅耗时两到三周,研究员们在春节期间也未停歇,继续全力推进研究,接下来还有大招。

  几天前,Daya Guo发布了一条推文,分享了他春节期间最为兴奋的事情——亲眼目睹了R1-Zero模型性能曲线的“持续增长”,并深切感受到了强化学习(RL)的强大力量。在回复网友关于DeepSeek R1的问题及公司后续计划时,Daya Guo透露,DeepSeek的R1只是一个开始,内部研究正在快速推进。他强调,研究员们在春节期间一直在加班加点地推进研究。

  对于网友提问的“如果不是秘密的话,这次RL训练跑了多久?”Daya Guo回应称,660B参数的R1-Zero和R1是在V3版本发布后才开始训练的,整个过程大约花费了2-3周的时间。此外,他还透露团队正在尝试将R1应用于形式化证明环境,并希望尽快向社区发布更加优秀的模型。从Daya Guo的言辞中不难看出,他们在这方面已经取得了进展,未来或将有更多重量级的模型问世,令人充满期待。

版权所有,未经许可不得转载

(本文来自于手机中国)

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片