中国引领全球AI理论突破!百度2014年就已发现Scaling Law

中国引领全球AI理论突破!百度2014年就已发现Scaling Law
2024年12月30日 17:16 网易新闻

近日,一项关于大模型核心理论“Scaling Law”的起源讨论正在外网热烈展开。最新观点和证据表明,中国科技巨头百度比OpenAI更早实现了这一突破。

知名媒体《南华早报》在其报道《百度在OpenAI之前就发现了Scaling Law?AI领域的辩论重新燃起》中指出,尽管美国在AI模型创新方面一直被视为领先者,但最新的讨论显示,中国在探索这些概念上可能更为超前。

大模型发展的核心是“Scaling Law”——这一原则认为,训练数据和模型参数越大,模型的智能能力就越强。这一思想广泛归功于OpenAI在2020年发表的论文《Scaling Laws for Neural Language Models》,自那以后,这个概念已成为AI研究的基石。

然而,OpenAI论文的合著者、前OpenAI研究副总裁、Anthropic创始人Dario Amodei,在11月的一期播客中透露,他在2014年与吴恩达在百度研究AI时,就已经发现了模型发展的规律Scaling Law这一现象。Dario Amodei表示,随着提供给模型的数据量增加、模型规模的扩大以及训练时间的延长,模型的性能开始显著提升。这一非正式的观察后来在OpenAI的GPT-1语言模型中得到了验证,并被认为是大模型发展的“金科玉律”。

此外,行业人士也发文称,关于Scaling Law的原始研究实际上来自2017年的百度,而不是2020年的OpenAI。Meta研究员、康奈尔大学博士候选人Jack Morris在X(前Twitter)上引用了一篇标题为《Deep Learning Scaling is Predictable, Empirically》论文,论文于2017年由百度硅谷人工智能实验室发布,详细讨论了机器翻译、语言建模等领域的Scaling现象。

但这篇论文的重要性被严重忽视,OpenAI在2020年的Scaling Law研究中引用了百度研究人员在2019年发表的论文 《Beyond Human-Level Accuracy: Computational Challenges in Deep Learning》(超越人类水平的准确性: 深度学习的计算挑战)。批评者称,OpenAI有选择地引用了百度2019年的论文,而忽略了2017年早些时候的研究,而该研究才是Scaling Law概念的真正原始来源。

有研究者表示,正是百度的早期研究为AI大模型的发展奠定了理论基础,并在2019年发布了第一代文心大模型,几乎与OpenAI处于同一时期。“中国在大型模型方面的进步也获得国际认可。”据《南华早报》,在上海举行的百度世界大会2024上,百度宣布了新技术,用以减轻图像生成中的幻觉问题——即生成误导性或事实不一致的图像。百度还透露,截至11月初,百度文心大模型的日均调用量已经达到了15亿,相较一年前首次披露的5000万次,增长约30倍。

随着AI技术的不断进步和应用的深入,中国在全球AI领域的影响力和领导地位将更加凸显。

海量资讯、精准解读,尽在新浪财经APP
百度 AI

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 01-06 思看科技 688583 --
  • 01-06 惠通科技 301601 --
  • 12-30 钧崴电子 301458 10.4
  • 12-30 赛分科技 688758 4.32
  • 12-24 星图测控 920116 6.92
  • 新浪首页 语音播报 相关新闻 返回顶部