《卫报》发布深度调查:在 2026 年伊朗冲突中,美军大规模部署 AI 驱动的战争规划系统,轰炸决策速度已远超人类实时审核能力。
关键问题
- 速度超越监督:AI 系统生成打击方案的速度已让人工审查流于形式,实际上 AI 在自主做出致命决定
- 「被动同意」困境:操作员面对的是「接受/拒绝」二选一,而非真正的决策参与——形同 AI 的橡皮图章
- 问责真空:当 AI 推荐导致平民伤亡,法律责任归属完全模糊
更广泛的影响
这标志着军事 AI 从「辅助决策」到「实质控制」的拐点。报道引发 AI 安全研究社区高度警觉——如果最先进的 AI 安全实践无法约束军事部署,对齐研究的边界在哪里?
这或许是 2026 年最需要讨论的 AI 伦理问题。