Anthropic PBC 2月26日拒绝了美国国防部的最新提议,双方围绕美国军方使用其人工智能技术的安全护栏之争进一步升级。此举发生在政府设定的最后期限前一天,美国政府要求该公司放弃限制,否则将面临严重后果。
美国国防部发言人Sean Parnell在社交媒体发文警告,称Anthropic必须在美国东部时间2月27日下午5时01分前,允许五角大楼不受限制地使用其Claude Gov人工智能工具。此前该公司曾坚持要求采取一些安全措施。
“这是一个简单、合乎常识的要求,将防止Anthropic危及关键军事行动并可能使我们的作战人员面临风险,”Parnell写道。一名五角大楼高级官员2月26日证实,国防部2月25日向Anthropic发出最终提议。
Anthropic一位发言人在声明中表示,五角大楼提出的新合同措辞,未能满足公司对AI军事使用设定安全护栏的核心要求。
Anthropic坚持在两项具体限制上寸步不让:一是不得将其技术用于监控美国公民,二是其模型不得在缺乏“人在回路”(human in the loop)的情况下,被用于自主致命打击。
Anthropic称,尽管五角大楼的最新提议未能达成共识,公司仍在与国防部官员继续沟通,并致力于与军方合作。五角大楼方面暂未回应置评请求。
这场争端的核心,在于五角大楼拒绝接受由私营科技公司为军事行动设定使用限制。国防官员认为,Anthropic要求为其Claude Gov模型设置护栏“没有必要”,并坚持应在不受企业附加条件约束的情况下使用该系统——这是目前少数获准用于机密云环境的AI工具之一。
若Anthropic拒绝让步,国防部已明确表示,将把该公司列为供应链风险,从而禁止其参与美国国防工业体系,并可能援引冷战时期通过的《国防生产法》,在公司反对的情况下强制使用其软件。
五角大楼的这一立场,意味着在涉及国家安全与战争决策的问题上,最终解释权只能属于政府,而非科技企业。
Anthropic首席执行官Dario Amodei 2月26日表示,他的公司致力于与军方合作,并希望军方重新考虑其目前只与接受“任何合法用途标准”的承包商合作的立场。
Amodei发表声明称:“这些威胁不会改变我们的立场:我们不能昧着良心答应他们的要求。” 编辑/陈佳靖

VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)
