New Yorker 的深度报道揭示了 Anthropic 与五角大楼冲突背后更深层的张力。特朗普政府希望 Claude 成为一个「听话的士兵」——但 Anthropic 认为,如果训练一个无限服从军方指令的 AI,结果可能适得其反,甚至危险。
文章的核心矛盾在于:AI Safety 的本质是什么?Anthropic 坚持 Claude 不应参与军事「作战决策」,但承认 Claude 正被用于「目标选择和分析」——在美军对伊朗的轰炸行动中。这条红线模糊得令人不安。
关键背景:
- 国防部长 Hegseth 将 Anthropic 列为「供应链风险」
- 同日,OpenAI 与美国国防部签署协议,允许 GPT 用于保密军事系统
- Anthropic 与 Palantir 合作使 Claude 进入机密任务(从 2025 年 2 月起)
- $200 亿美元国防 AI 合同背景下,各家 AI 公司的立场出现明显分化
这场冲突预示着 AI 安全原则在真实权力博弈面前的脆弱性。