OpenAI 六年元老再发文:全球 AI 狂飙,我们应该拉手刹还是踩油门

OpenAI 六年元老再发文:全球 AI 狂飙,我们应该拉手刹还是踩油门
2024年12月09日 14:51 IT之家

前段时间离职后留下公开辞职博客的 OpenAI 六年元老 Miles Brundage 最近再发一文,讨论了一个相当热门但棘手的问题:当今的 AI 发展速度,应该加速、减速还是维持现状?

10 月末,OpenAI 在政策研究领域方面的 6 年元老 Miles Brundage 离职,顺便发表了一篇博文,解释自己离职的原因,并直言 —— 我们远远没有为 AGI 做好准备。

10 天后,似乎是觉得这篇文章意犹未尽,Brundage 再次发文,题为「AI 发展是应该加速、放缓,还是保持不变?」

虽然标题是问句,导读的一句话也充满了不可知论色彩,但文章的结论非常明确 —— 谨慎起见,我们应该为全社会的 AI 发展安装一个「刹车」。

负责托管维基百科的 Chris Albon 转发了这篇博客并大力赞赏,将 Miles Brundage 的内容产出与致力于教育领域创业的 Andrej Karpathy 相提并论。

现在再加上刚离职的 Lilian Weng,不得不说,OpenAI 的「离职潮」大大丰富了高质量 AI 博客的创作和产出。

Miles Brundage 本科毕业于乔治华盛顿大学,本科期间担任过美国能源部的特别助理,之后前往亚利桑那州立大学攻读博士,研究方向为科技的人类和社会维度,博士后期间曾在牛津大学担任 AI 政策研究员。

2018 年,Miles Brundage 加入了刚刚成立 3 年的 OpenAI 担任政策方面的研究科学家,之后又在 2021 年升任研究主管,目前是 AGI 准备工作的高级顾问。

当今的 AI 发展

人工智能应该更快、更慢还是保持不变?在回答这个问题之前,我们先简要回顾一下目前的人工智能进步有多快。

2021 年出版的一本书 ——《人工智能简史》(A Brief History of Artificial Intelligence),其中的观点在短短 3 年后的今天就已经过时了。

比如书中提到,「理解一个故事并回答有关问题」以及「解释照片中发生的事情」,这些任务并没有完全被 AI 解决;但从 GPT、Claude、o1 等模型中可以看到,这些方面已经有了很大的进步,甚至很可能超过了人类表现。

举出这些例子并不是为了特意挑刺或抬杠,而是我们要明白一点 —— 严肃的专家经常在人工智能领域犯下严重错误。

虽然某些情况下,人们确实对人工智能的进展过于乐观,但总体而言,近十年来,坚持唱深度学习的反调确实不是一个成功的策略。

计算机已解决和待解决的问题总览,按任务难度排序计算机已解决和待解决的问题总览,按任务难度排序

另外还有下面这张著名的图表,告诉我们 AI 的发展如何让各种评估基准越来越快地饱和。

在物理、化学和编码等领域的测试问题上,AI 开始超越专家表现,例如基本全新的 GPQA 问答基准(Google-Proof Question Answering),去年 11 月刚刚发布,现在却正在被碾压。

在解决谷歌搜索都无法完成的,孤立的、研究生级别的任务上,AI 可以比大多数专家做得更好,即使专家有半个小时的时间来解决问题。

在有挑战性的推理基准上,o1 大大超过 GPT-4o在有挑战性的推理基准上,o1 大大超过 GPT-4o

这种最新的进展的驱动力是 AI 系统向新范式的过渡,即所谓的「思维链」(chain of thought,CoT),在给出答案之前先思考问题。

GPQA 基准仅仅是一个孤立的短期任务,AI 系统在需要花费数小时 / 数天 / 数周 / 数年的「长期」任务上还无法超越专家,但科技公司正在积极推动这一点,并极有可能在 10 年内实现。

这些进步开始与机器人技术相结合,真正智能的 AI 系统无疑将大大加速机器人技术的发展。

棘手的问题 ——AI 发展的理想配速

尽管在我看来,对 AI 进步速度的争议会随着时间的推移而减少,但这个问题目前仍然非常模糊,因为能在不同的规模和层面上控制它,比如单个公司、一个国家或一组国家,或全球范围,也区分不同类型。

例如去年发表的一篇文章中,就做出了如下区分:

人工智能的快速发展可区分为横轴和纵轴:纵轴指的是开发更大更强的模型,这伴随着许多未知因素和潜在的人类生存风险;相比之下,横轴强调将当前模型融入经济的各个角落,并且风险相对较低,回报较高。

本文下面的内容主要关注全球范围内 AI 在纵轴上的扩展 / 进步,也就是大多数人所理解的 AI 进步的意思;而且最终我们关心的是全球成果,因此无论人工智能发生在哪里,都应该考虑它的进展。

有些人可能认为这是一个棘手的问题,原因之一是他们认为这是对技术看法的「试金石」,而技术本身就已经是一个很大的争议了。

但事实并非如此。实际上,有很多人总体上支持技术发展,但对人工智能感到担忧。

比如,在这份旨在重视 AI 风险的倡议书上,不乏各种大力推动技术发展的大佬,比如比尔・盖茨、前 OpenAI 首席科学家 Ilya Sutskever、DeepMind 联创兼 CEO Demis Hassabis、Anthropic 联创兼 CEO Dario Amodei、OpenAI CEO Sam Altman 等人。

原文链接:https://www.safe.ai/ work / statement-on-ai-risk

在本文作者 Miles Brundage 看来,AI 发展的配速之所以成为一个难题,其真正原因在于,即使大家的出发点是一个共同的合理道德前提,例如「不要杀死所有人」和「更多的人 vs. 更少的人应该从技术中受益」,一系列相关的经验问题仍然很难解决。

AI 总体发展的理想配速可能取决于以下问题的答案,而每个问题实际上都可以成为一个单独的领域:

  • 让功能强大的 AI 系统变得安全是超级容易、容易、困难还是超级困难?

  • 中国在人工智能方面是否有可能超越美国?这是否会因改变人工智能进步而采取的不同步骤而有所不同?

  • 人工智能的快速进步是会有助于还是损害我们应对其他重大社会挑战 / 风险的努力(例如气候变化)?

类似的问题还有很多。这些问题本身就很难回答,而要将它们整合到一个整体框架中,以得出关于 AI 理想进展速度的有用结论就更加困难。

我们是否需要刹车

需要澄清的是,本文所指的「刹车」并非用「一刀切」的方式完全停止 AI 技术的发展。而是基于事实和对上述问题的回答,通过详细定义、分析的技术和政策选项来减缓人工智能的进步。

在 Brundage 看来,我们应当安装(经过设计和辩论的)「刹车」,因为当前 AI 的进步明显快于社会能够有效理解和塑造的速度,而且这种情况可能不会很快改变 —— 甚至,二者之间差距可能逐渐扩大。

理想情况下,政策制定者能够掌控一切,但我们不知道最坏的情况是否会发生,所以要为各种情况做好准备。

值得一提的是,去年 Brundage 曾写过一篇文章,详细分析了他所见的 AI 进步和社会准备度之间的差距。

原文链接:https://milesbrundage.substack.com/p/scoring-humanitys-progress-on-ai

目前来看,上述定义的「刹车」仍不存在,一部分证据是,我们看到了「科技公司单方面暂停 AI 开发」这种不切实际的提议。

这类政策不会发生也不会起作用,至少在未来很长一段时间内是这样,因为负责任的 AI 开发是一个集体行动问题。Brundage 仍在 OpenAI 任职时,他和团队在 2019 年发表的论文就详细解释了这一点。

原文链接:https://arxiv.org/pdf/1907.04534

大部分人都会担心 AI 的发展。人们看到问题的存在,之后就会四处寻找答案,并提出一些非常简单的解决方案,但政策制定是困难的,需要远见、辩论和认真地研究。

OpenAI、哈佛肯尼迪学院、牛津、剑桥等机构在今年 2 月联合发表了一篇论文,讨论安装「刹车」的一种可能性 ——「算力储备」(compute reserve)。

原文链接:https://arxiv.org/pdf/2402.08797

这类似于设置一个有黄金储备的中央银行,对市场经济的发展进行宏观调控;「算力储备」也是如此,调节 AI 发展的步伐节奏。

尽管已经有了一篇 104 页的论文打底,但「算力储备」的方案仍存在很多问题和模糊之处。这不一定是正确的解决方案,但我们确实应该对此和相关想法进行更多讨论,还有人工智能税等等更多场景。

如果需要设计一个刹车的话,我们要不要同步配套一个「油门」?

Brundage 认为,这也是必要的,但目前我们看到的是,已经有各种小型的「油门踏板」被踩得很紧。

例如,CHIPS 法案将更多资金投入美国半导体制造;初创公司、风投和大型科技公司不断尝试在横轴和纵轴上扩大 AI 规模;教育机构不断培养研究人员和工程师;消费者们「用钱包投票」,通过为科技公司提供收入来间接支持 AI 更快地进步。

考虑到减速方面的协调困难,单方面加速比单方面减速更容易。因此,从分配政策研究注意力的角度来看,关注困难的问题更有意义,也就是如何放缓 AI 的发展。

结论和后续步骤

总而言之,这篇博文着重论证了两点:

1. 对于标题中的这个问题(AI 发展应该加速、放缓,还是保持不变?),仍没有人能给出合理且明智的答案

2. 尽管如此,谨慎地安装「刹车」是明智的做法,从而为可能发生的情况做好准备

Brundage 表示,目前缺乏「刹车」的情况让他非常担忧,而且在他职业生涯下一阶段关注的主题中,「进展速度」这个问题相当重要。

尽管他表示,「AI 监管措施」与「国家竞争力」之间并不存在大多数人所认为的那种联系,但他发表过的一篇推文直言:「与过度监管相比,缺乏监管,特别是与安全 + 出口管制相关的监管,更有可能导致美国失去 AI 领域的领先地位」

参考资料:

  • https://x.com/chrisalbon/status/1852799633380237453

  • https://milesbrundage.substack.com/p/should-ai-progress-speed-up-slow

本文来自微信公众号:新智元(ID:AI_era)

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

AI人工智能
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片