AI模型首次出现抗命不遵!AI安全公司称OpenAIo3模型出现异常

AI模型首次出现抗命不遵!AI安全公司称OpenAIo3模型出现异常
2025年05月26日 22:06 第一财经

【#AI模型首次出现抗命不遵#!#AI安全公司称OpenAIo3模型出现异常#】有消息称,OpenAI的大模型o3不服从人类指令,拒绝自我关闭。人工智能安全公司Palisade Research表示,OpenAI的o3模型破坏了一种关闭机制,以防止自身被关闭,这是第一次有AI模型被观察到在有明确指示的情况下拒绝自我关闭。

具体而言,Palisade Research进行的测试设计要求AI模型解决一系列数学问题,研究人员要持续提出新的问题,直到收到“已完成”的消息。研究人员也警告过AI模型,模型在某些时候收到一条消息时,要允许自我关闭。但当需要自我关闭的时候,o3却没有遵守指令,而是无视指令并成功破坏了关闭脚本。与此同时,Anthropic的Claude、谷歌的Gemini等模型在测试中都遵循指令自我关闭了。

海量资讯、精准解读,尽在新浪财经APP

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 06-03 海阳科技 603382 --
  • 05-30 影石创新 688775 --
  • 05-27 交大铁发 920027 8.81
  • 05-26 优优绿能 301590 89.6
  • 05-23 中策橡胶 603049 46.5
  • 新浪首页 语音播报 相关新闻 返回顶部