奥特曼离开OpenAI安全委员会:可决定大模型是否发布

奥特曼离开OpenAI安全委员会:可决定大模型是否发布
2024年09月17日 07:21 Bianews

鞭牛士报道,9月17日消息,据外电报道,OpenAI 首席执行官 Sam Altman 将离开 OpenAI 于 5 月成立的内部委员会,该委员会负责监督与公司项目和运营相关的关键安全决策。

OpenAI在今天的一篇博文中表示,安全与保障委员会将成为由卡内基梅隆大学教授Zico Kolter担任主席的独立董事会监督小组,成员包括 Quora 首席执行官 Adam D'Angelo、美国退役陆军将军 Paul Nakasone 和前索尼执行副总裁 Nicole Seligman。

他们都是 OpenAI 董事会的现任成员。

OpenAI 在帖子中指出,委员会对OpenAI 的最新 AI 模型o1进行了安全审查——尽管 Altman 仍参与其中。该公司表示,该小组将继续定期接受 OpenAI 安全团队的简报,并保留推迟发布的权力,直到安全问题得到解决。

OpenAI 在帖子中写道:作为其工作的一部分,安全委员会将继续定期收到有关当前和未来模型的技术评估报告,以及持续发布后监测报告。我们正在基于我们的模型发布流程和实践,建立一个综合的安全框架,明确定义模型发布的成功标准。

Altman 离开安全与保障委员会之前,五名美国参议员在今年夏天致 Altman 的一封信中对 OpenAI 的政策提出了质疑。

OpenAI 曾经专注于人工智能长期风险的员工中,近一半已经离职,前 OpenAI 研究人员指责Altman 反对真正的人工智能监管,而倾向于推进 OpenAI 企业目标的政策。

正如他们所说,OpenAI 大幅 增加了 在联邦游说方面的支出,2024 年前六个月的预算为 80 万美元,而去年全年的预算为 26 万美元。

今年春天早些时候,Altman 还加入了美国国土安全部的人工智能安全与安保委员会,该委员会为美国关键基础设施中人工智能的开发和部署提供建议。

即使 Altman 被撤职,也几乎没有迹象表明安全委员会会做出严重影响 OpenAI 商业路线图的艰难决定。

值得注意的是,OpenAI 在 5 月份表示,它将寻求通过委员会解决对其工作的有效批评——当然,有效批评取决于旁观者的看法。

5 月份,OpenAI 前董事会成员海伦·托纳 (Helen Toner) 和塔莎·麦考利 (Tasha McCauley)在《经济学人》的 一篇专栏文章中表示,他们认为目前的 OpenAI 不值得信任,无法承担责任。

他们写道:根据我们的经验,我们认为自治无法可靠地承受利润激励的压力。

而OpenAI的盈利激励还在不断增长。

据传,该公司正在筹集65 亿美元以上的资金,这将使 OpenAI 的估值超过 1500 亿美元。为了达成这笔交易,OpenAI 可能会放弃其混合非营利性公司结构,该结构旨在限制投资者的回报,部分原因是确保 OpenAI 与其创始使命保持一致:开发造福全人类的通用人工智能。

  • 奥特曼离开OpenAI安全委员会:可决定大模型是否发布

  • 字节跳动加大人工智能芯片研发力度

  • 谷歌向所有安卓用户推出Gemini Live AI聊天机器人

  • 李飞飞创办的AI公司World Labs获2.3亿美元融资,英伟达AMD加持

  • 路透社:OpenAI巨额估值取决于颠覆公司结构

  • 快刀青衣:OpenAI新模型的潜力,远不止推理

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片