
人工智能公司Anthropic正式提起诉讼,要求阻止特朗普政府实施其所谓的“非法报复行动”。此前该公司因拒绝军方无限制使用其技术而遭到政府打压。
本周一,Anthropic向联邦法院提出申请,要求撤销五角大楼上周将其列为“供应链风险”的决定,同时寻求推翻特朗普总统要求联邦雇员停止使用其AI聊天机器人Claude的行政命令。
这场法律对决将关于AI在战争和大规模监控中应用的争议推向高潮——这场风波甚至波及Anthropic的科技界竞争对手,尤其是ChatGPT制造商OpenAI。就在政府因立场问题制裁Anthropic数小时后,OpenAI迅速与五角大楼达成了合作协议。
Anthropic于周一分别向加州联邦法院和华盛顿特区联邦上诉法院提交了两起独立诉讼,针对政府对该旧金山公司的各项制裁措施提出法律挑战。
诉状中写道:“这些行动前所未有且不合法。宪法不允许政府滥用巨大权力来惩罚企业的合法言论自由。没有任何联邦法规授权此类行为。Anthropic诉诸司法系统作为最后手段,以捍卫自身权利,制止行政部门的非法报复行动。”
精彩视频
美国国防部周一以“不对诉讼事项置评”的政策为由拒绝发表评论。
Anthropic表示,公司始终致力于限制其技术被用于美国公民的大规模监控及完全自主武器系统。国防部长皮特·赫格塞斯等高官曾公开要求公司必须接受Claude的“所有合法用途”,威胁若不服从将实施惩罚,并在社交媒体上谴责该公司及其CEO达里奥·阿莫迪。
将该公司列为供应链风险的决定,实际上切断了Anthropic的国防合作渠道。这项原本为防止外国敌对势力危害国家安全系统而设立的权限,首次被联邦政府用于制裁美国本土企业。根据诉状披露,赫格塞斯在3月4日致Anthropic的信函中称此举“对保护国家安全至关重要”。
特朗普虽表示将命令联邦机构停用Claude,但仍给予五角大楼六个月过渡期,以逐步替换已深度嵌入机密军事系统(包括用于伊朗战争的系统)的该产品。
在财政部、国务院等联邦机构下令员工停用Claude后,Anthropic的诉讼对象已扩展至多个政府部门。
纽约法学院教授迈克尔·帕斯特指出,此案中Anthropic提出的第一修正案和正当程序论据极具说服力,这场争端“已激化到超乎想象的程度”。曾担任纽约市总法律顾问的帕斯特表示:“我从未见过此类案例。我们从未想过在谈判陷入僵局时,竟会以毁灭性手段威胁企业。”
尽管与五角大楼对峙,Anthropic仍努力向企业及其他政府机构说明:特朗普政府的供应链风险认定范围有限,仅影响国防承包商在 Pentagon 项目中使用Claude的情况。
对未上市的Anthropic而言,厘清这一界限至关重要——其今年预计140亿美元收入中,绝大部分来自将Claude用于编程等任务的企业及政府机构。近期估值达3800亿美元的投资公告显示,超过500家客户每年支付至少100万美元使用Claude。
Anthropic周一声明强调:“寻求司法审查不会改变我们运用AI保护国家安全的长期承诺,但这是保护企业、客户及合作伙伴的必要举措。”
诉状将AI安全与“人类福祉”定位为公司的核心使命。这家由阿莫迪等七位OpenAI前员工于2021年创立的企业,始终在其使用政策中明确禁止“无人类监督的致命自主武器及对美国公民的大规模监控”。公司表示从未在这些领域测试Claude,且对其产品在致命自主战争中的可靠性“缺乏信心”。
与此同时,该公司仍允许军方在民事领域禁止的范畴使用Claude,包括军事行动及分析“合法收集的外国情报信息”。
直至近期,Anthropic仍是业内唯一获准向机密军事系统提供AI模型的科技公司。此次争端促使五角大楼考虑将Claude的工作转移至谷歌Gemini、OpenAI的ChatGPT及马斯克的Grok。
诉状指控特朗普政府的行动“损害公司声誉,危及数亿美元商业合同,企图摧毁这家全球增长最快的私营企业所创造的经济价值”。
颇具戏剧性的是,这场斗争反而提升了Anthropic在部分客户和科技从业者中的声誉——他们赞赏公司拒绝向政府压力妥协的立场。当阿莫迪的劲敌、OpenAI CEO萨姆·奥特曼急于用ChatGPT取代五角大楼的Claude系统(后自认此举仓促且机会主义)时,阿莫迪的道德立场更显突出。
消费者对Claude的下载量激增,使其人气首次超越知名度更高的ChatGPT和Gemini。
企业如何设定技术红线,将持续影响AI人才争夺战。OpenAI机器人部门负责人凯特琳·卡利诺夫斯基就因公司与五角大楼的合作而辞职。
“这并非轻松的决定,”卡利诺夫斯基上周末在社交媒体写道,“AI在国家安全领域确实重要。但未经司法监督监控美国公民、未经人类授权使用致命自主武器——这些红线本应得到更审慎的考量。”