DeepSeek过几周还有大招!春节期间加班加点地推进研究

DeepSeek过几周还有大招!春节期间加班加点地推进研究
2025年02月06日 05:04 中关村在线

近期,科技界最为热议的词汇当属“DeepSeek”。据悉,DeepSeek-R1在数学、代码自然语言推理等领域的表现已经能够与OpenAI的GPT-1正式版相媲美,其火爆程度席卷全球。这一突破性进展不仅彰显了DeepSeek团队的技术实力,也引发了业界对人工智能未来发展的广泛讨论。

近日,DeepSeek的研究员在线透露了一个令人振奋的消息:R1的训练过程仅仅耗时两到三周。这一高效的训练速度无疑为DeepSeek的进一步研发奠定了坚实的基础。据悉,研究员们在春节期间也未停歇,继续全力推进研究,以期在未来推出更多重量级的模型。

几天前,Daya Guo发布了一条推文,分享了他春节期间最为兴奋的事情——亲眼目睹了R1-Zero模型性能曲线的“持续增长”,并深切感受到了强化学习(RL)的强大力量。Daya Guo的言辞中透露出对DeepSeek未来发展的坚定信心和期待。

在回复网友关于DeepSeek R1的问题及公司后续计划时,Daya Guo透露,DeepSeek的R1只是一个开始,内部研究正在快速推进。他强调,研究员们在春节期间一直在加班加点地推进研究,以期尽快向社区发布更加优秀的模型。当被问及“如果不是秘密的话,这次RL训练跑了多久?”时,Daya Guo回应称,660B参数的R1-Zero和R1是在V3版本发布后才开始训练的,整个过程大约花费了2-3周的时间。

此外,Daya Guo还透露团队正在尝试将R1应用于形式化证明环境,并希望尽快向社区发布更加优秀的模型。从Daya Guo的言辞中不难看出,DeepSeek团队在这方面已经取得了显著的进展,未来或将有更多具有颠覆性的模型问世。

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片