美军被曝使用Claude AI辅助空袭:伦理争议背后的技术真相
2026年2月28日,包括伊朗最高领袖哈梅内伊在内的多名伊朗高层被锁定并击杀。随着更多细节流出,一个惊人的事实浮出水面:据《华尔街日报》援引匿名消息人士称,美国武装部队在对伊朗实施空袭时,使用了美国Anthropic公司的大语言模型“克劳德”(Claude)。
更令人玩味的是,这次行动发生在特朗普总统下令联邦机构停止与Anthropic合作的次日——2月27日,特朗普签署行政令,要求所有联邦机构逐步淘汰该公司的产品,理由是五角大楼认定Anthropic构成“供应链风险”。
AI如何融入“斩首杀伤链”
对于AI在此次行动中的具体作用,云南行政学院讲师凡行向香港中通社分析指出,对伊朗高层的成功定位并非一日之功,而是长期情报渗透与技术整合叠加的结果。
从技术层面看,AI被嵌入情报筛选、数据整合、战场模拟与决策支持等多个环节:
首先,是多源情报的自动化处理。 传统流程需要大量分析师逐条比对人力和信号情报。AI算法嵌入之后,系统可以自动标注异常模式——如车辆出入频率突然变化、通信节点活跃度异常上升、安保调动与会议周期重叠等。这些信号单独看不足以确认目标在场,但当多源数据在模型中叠加,便可以形成概率提示,生成结构化的风险报告。
其次,是对目标位置的概率化判断。 在伊朗高层安保严密的背景下,美方需要多源情报交叉验证目标轨迹。算法不再给出简单的“在或不在”,而是输出概率区间——例如某一时间窗口内目标出现的可能性。这种方法将原本依赖经验判断的情报分析转化为可量化的风险排序。
最后,是决策流程的压缩。 AI在决策界面中进行情景模拟和风险排序,评估立即行动的成功率、延迟行动的风险、附带损伤的可能性等。这些原本需要反复推演的问题,可以在短时间内生成对比结果。
伦理红线与技术越界
然而,Anthropic的使用政策明确禁止将该AI模型用于“促成暴力、研发武器或实施监控”等活动。就在对伊朗发动袭击的前几天,Anthropic首席执行官达里奥·阿莫代伊还强调,公司在AI的使用方面有自己的“红线”。
问题的关键在于权限之争。美国国防部认为Anthropic造成“供应链风险”,原因是其拒绝向美军提供Claude的完全访问权限。而Anthropic称,此举是担心政府会利用Claude进行“大规模监控”和“完全自主武器部署”(不需要人为干涉,自动选择和攻击目标),双方已就这一问题谈判数月。
讽刺的是,就在Anthropic被联邦机构叫停的当天,OpenAI宣布与美国国防部达成合作协议。与此同时,多名谷歌和OpenAI的员工联合签署公开信,呼吁科技公司抵制将AI模型用于大规模监控以及完全自主武器系统。
AI神话与现实边界
尽管媒体报道将AI推向神坛,但界面新闻的调查指出,Claude当前更多是作为处理和分析非结构化数据的工具,目前尚无证据表明它直接参与了对哈梅内伊的追踪,或是“扣动扳机”。此次行动更多依赖的是美国中央情报局传统的人力情报手段。
事实上,AI在军事领域的渗透是一个渐进的过程。早在2024年11月,软件公司Palantir就宣布与Anthropic达成合作。通过Palantir的AIP平台,美国情报和国防部门可以使用由亚马逊提供的集成技术套件部署Claude,提升情报分析能力。这两家公司共同参与了今年1月抓捕委内瑞拉前总统尼古拉斯·马杜罗的行动。
此外,美国国防部还于今年1月宣布与xAI旗下的Grok展开合作。与此同时,OpenAI与谷歌的Gemini也联合开发了一款面向军方的AI平台,用于文档分析、报告生成和研究支持。
未竟的争议
随着AI逐渐嵌入军事体系,伦理问题正从理论探讨变成现实争议。在人工智能技术的军事应用方面,科技公司与政府之间的博弈仍在持续。AI在情报分析等环节展现出应用潜力,但如何划定技术参与军事行动的边界,仍是双方争议的焦点。
尽管AI在此次冲突中是否扮演决定性角色尚无定论,但可以确定的是:算法正逐渐成为信息处理与作战规划的重要工具。在平台决定数据流动的速度中,模型负责风险计算,而最终决定——以及随之而来的伦理责任——仍由人类完成。