AI安全领域新锐思想者谈缘何这项技术仍需担忧

AI安全领域新锐思想者谈缘何这项技术仍需担忧
2024年07月05日 07:30 商业周刊

几年前,丹·亨德里克斯(Dan Hendrycks)还是加州大学伯克利分校的一名学生,正在攻读计算机科学博士学位。现在,他成为了人工智能安全和政策领域最具影响力的新锐人物之一。

就在前几个月,亨德里克斯还在为埃隆·马斯克提供咨询服务,与阿根廷总统共进晚餐,并帮助加利福尼亚州制定了一项名为SB 1047、引起了热议的新立法。

亨德里克斯最早是在2023年5月登上了头条新闻,当时他新成立的非营利组织人工智能安全中心(CAIS)写了一封只有一句话的公开信,呼吁“降低人工智能带来的灭绝风险”,并将其作为全球优先事项,就像预防流行病或核战争一样。OpenAI的萨姆·奥尔特曼(Sam Altman)和Anthropic的达里奥·阿莫代(Dario Amodei)等人工智能领域的名人都签署了这份声明。

从那时起,人们对人工智能可能会毁灭世界的担忧有所减弱。但亨德里克斯说,这并不意味着我们不应该担心。

“如果未来10年内我们达到了通用人工智能(AGI)的程度,将彻底改变人类的生存环境:至少会造成大规模的劳动中断,”亨德里克斯对我说,“所以这并不像说‘哦,现在我们有了电动牙刷。’它和其他小的外围技术创新不一样。” 人工智能安全中心已经筹集了数百万美元,下一步的目标是将业务扩展到华盛顿特区。

亨德里克斯对人工智能安全的倡导让他在一些圈子里不受欢迎,特别是因为他参与起草的加州SB 1047法案引发了争议,一些技术专家认为该法案可能会阻碍创新。他说,这些批评大多是站不住脚的。他说:“不论法案的内容如何,都会有很多风险投资人和诸如此类的群体加以反对。”

我们与亨德里克斯谈了该法案引起的风波、他与马斯克的合作,以及我们将如何获知什么时候已经实现了通用人工智能。

(出于篇幅和表达清晰的关系,对话内容经过了编辑。)

彭博:你是埃隆·马斯克的人工智能公司xAI的安全顾问,和他共事感觉如何?

亨德里克斯:他是非常优秀的管理者。每周跟他开会的时候,我笑的比参加其他任何会议都多。

我很想多听听马斯克对人工智能安全的看法。他显然非常关注人工智能的长期风险。另一方面,他也非常明确地表示,不希望监管机构妨碍对言论的监管。

这是有区别的。所以,埃隆肯定是支持监管的。过去,他是人工智能安全领域的灾难预言家,耗费了他大量的社交资本。

他定会反对违反言论自由的行为,但那不是政府的事。更像是一种规范,“你是在指示人工智能说一些特定的意识形态的东西吗?”

你在xAI的安全方面有什么职责?

我认为目前最主要的是遵守行政命令,并提出良好的验证方法,“模型是否会被实质性地让恶意行为者将其用作化学、生物、放射性或核武器或网络武器?”为此,我们需要良好的衡量方法。这与我在测量、基准设定和评估方面的背景相契合。

之后,还会有诸如“如果我们在系统中遇到这种危险,该怎么办?”之类的问题。然后进行某种协商,找出应对措施。

我想在OpenAI或Anthropic,他们可能至少有几十个人在做这个事。你是要算一算人数,还是只有你一个人?

有幸的是,我做的一些事情可以在人工智能安全中心完成。比如,我们用大规模杀伤性武器的代理基准Scale AI制定了一些基准。然后我们可以把它发布出去,在xAI,他们最终可以用上它。因此,我可以用这种间接方式提供帮助,然后随着组织规模的扩大,更多人关注安全问题,人数对这方面的影响会减小。

你在人工智能安全中心的工作重点是什么?

现在,我感兴趣的是找到一个具有人类共识的衡量标准,即“如果超过了这个指标,那么我们就实现了通用人工智能。”因为我认为,现在很难就我们何时能达到这个超能力水平,以及到了这个超能力水平之后我们应该做些什么来进行协调。在如何衡量能力的方面,现在是一团糟。

我们的另一个重点是出口管制和国家安全,确保我们对诸如英伟达H100这样的产品进行管制,并试图对计算领域进行更多监督。此外,我们还有个关注点是加州立法SB 1047。

大约一年前,你说人工智能有可能会协助制造生物武器或进行大规模黑客攻击。发生过类似情况吗?你是否改变了看法?

我想我是在2021年写下了我的判断。我更倾向于2026年会发生对重要基础设施的某种大规模攻击。现在看来方向还是对的。也许会比这再早一点。

但我想明确一点,我担心的两种主要的恶意使用形式——会影响国家安全——是对重要基础设施的网络攻击和人工智能生物武器。

我现在不担心模型。目前我们仍停留在GPT-4模型。GPT-4并不让我担心。

你如何看待许多科技业人士抵制SB 1047法案的情况?

我会和其中的一些人交谈,然后他们会说:“从来就不应该对模型进行测试。政府不应该对模型或它们是否会造成伤害进行测试。”我就说,“好吧,那行,我看不出这里还有什么商量的余地。”因为在iPhone发布前我们会进行测试。

还有很多完全似是而非的论点,比如“哦,这违反了第一修正案。”再比如,他们跟律师事务所谈过吗?还有其他一些事情他们也感到非常不满:比如伪证条款之类的。是的,如果你在是否做过安全测试的问题上故意向政府撒谎,你还说“哦,一切顺利”,但事实却并非如此,如果你在这方面对政府撒谎,可能会惹麻烦。这并不稀奇。

不管内容如何,都会有很多风险投资人和诸如此类的群体加以反对。但我认为我们做得很好。我们的目标是影响国家安全的事物。例如,在涉及网络和传统大规模杀伤性武器时,我们特别关注的是重要基础设施。我认为,因为有了行政命令,他们已经在做很多这样的安全测试了。这只是让它成为法律,而不是未来某届政府可以撤销的行政命令。

你认为最近对有效利他主义(EA)的一些批评是针对你的,还是针对一般的人工智能安全工作的?

这是个让人厌倦的区分。我觉得大家普遍都认为(SB 1047)是合理的。我们委托进行了一项独立民调,以了解该法案在全国范围内的支持情况。

这不是有效利他主义的事情。很不幸的是,在ChatGPT出现之前,关注人工智能风险的主要群体就是有效利他主义群体。

我们中的一些人不得不与有效利他主义者共存,因为他们就是这样一股压倒性的力量。但在GPT诞生后,他们就显得杯水车薪了,而且我认为他们可能不是影响故事情节的主要人物。

马斯克不是有效利他主义者,奥尔特曼也不是。我认为他们非常关心人工智能的安全。

你认为联邦政府在这方面的监管有希望吗?

当然有。我意思是,我们已经有了出口管制,比如对GPU的管制。这些都有很多漏洞。我们不能指望工业安全局自己来解决所有问题。我认为,世界终于明白了这一点:这在很大程度上是关于计算和GPU的事,不只与AI开发者相关。我们应该弄清楚,如果芯片是未来的铀,我们就应该跟踪“铀去哪了?是不是被走私了?”

我还预计,人工智能的能力将呈跳跃式发展。自GPT-4以来,我们还没有过实质性的飞跃,因为还没有哪个模型的算力达到GPT-4的10倍。而一旦达到,我想人们就会说,“哦,人工智能的进步比预期快得多。”然后就会有政治上的动力去做新的事情。

我看到过一张与阿根廷总统哈维尔·米莱一起参加科技晚宴的照片。我想我看到你也在其中。是吗?如果是,你们谈了什么?

是的,没错。显然,米莱总统的人在看我编写的教科书,或者说他的顾问在看教科书。我觉得他们做的事情很有意思。我认为,评论其他国家的事通常不是很好,但很明显,他为本国经济做了一件好事。我意思是,我觉得他们认识到了人工智能会对经济产生重大影响。所以我们会看到他们最终将会做些什么。 

当时我坐在OpenAI的格雷格·布罗克曼(Greg Brockman)和Andreessen Horowitz公司一些人的旁边,跟他们相处得很愉快。编辑/陈佳靖

海量资讯、精准解读,尽在新浪财经APP
人工智能 亨德里克斯 AI

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 07-15 绿联科技 301606 --
  • 07-11 科力装备 301552 --
  • 07-01 乔锋智能 301603 26.5
  • 06-26 键邦股份 603285 18.65
  • 06-24 安乃达 603350 20.56
  • 新浪首页 语音播报 相关新闻 返回顶部