
2026年2月28日,天色微明,德黑兰市中心传来的巨大爆炸声不仅终结了伊朗最高领袖哈梅内伊的生命,也彻底炸开了人类战争史的新纪元——这是一场由算法深度参与的斩首行动 。
当外界还在探讨人工智能的伦理边界时,美军中央司令部与以色列军方已将大模型实装进杀伤链。从情报筛选的读秒时代到目标识别的上帝视角,AI不再是科幻电影中的天网,而是变成了此次史诗狂怒行动中那个隐形却致命的数字参谋。
一、被压缩的杀戮链:从数月到数分钟
传统战争中,从发现到摧毁的OODA循环(观察、调整、决策、行动)受限于人类生理极限,往往需要数小时甚至数天。而在本次行动中,这个周期被AI压缩到了极致。
据多家媒体报道,在此次行动中大放异彩的核心技术组合,是 Anthropic开发的Claude大模型与Palantir的AI平台 。这套系统通过Palantir的Foundry国防平台,接入了美军分布在全球的传感器、卫星图像、信号情报甚至社交媒体开源信息。
AI在这里扮演了超级情报分析官的角色。在行动前的准备阶段,面对伊朗革命卫队层层设防的通讯静默,Claude被用于处理海量的非传统数据。正如前国防部官员分析,AI很可能通过比对卫星图像的变化、分析德黑兰街头的物资流动轨迹,甚至通过监测特定建筑的能量消耗异常,从数百万条看似无关的信息碎片中,拼接出了哈梅内伊的行踪规律 。这种能力将原本需要数百名情报官员耗时数月的工作,缩短至数天甚至数小时。
更有趣的一个细节是,在行动前夕,以色列《耶路撒冷邮报》曾向多款大模型提问袭击何时发生。虽然Claude预测有偏差,但马斯克旗下的Grok两次准确预言了2月28日这个日期 。这虽然带有巧合色彩,但也揭示了AI基于海量数据推演局势的能力已具备极高的参考价值。
二、 裂痕:硅谷的道德红线与五角大楼的战争野望
然而,就在这场精准到令人窒息的军事行动前几个小时,华盛顿与硅谷之间爆发了一场足以载入史策的决裂。
2月27日,特朗普政府下令所有联邦机构立即停用Anthropic的产品,并将这家AI新锐巨头列入供应链风险名单,这种待遇通常只针对外国实体。原因在于,Anthropic坚守了两条不可逾越的“宪法AI”红线:禁止将AI用于大规模监控,以及禁止用于完全自主的致命武器 。
讽刺的是,就在被拉黑的同一天,美军在对伊行动中依然在使用Claude 。这揭示了一个残酷的现实:AI技术一旦深度嵌入军事体系,便成了拔不掉的“钉子”。五角大楼官员承认,由于Claude已被广泛用于情报流程,完全移除需要至少六个月 。
而Anthropic的竞争对手OpenAI则迅速补位,在冲突爆发当天宣布与五角大楼达成协议。硅谷内部因此出现巨大裂痕:数百名谷歌和OpenAI的员工签署公开信,抗议将AI用于可能脱离人类控制的杀戮 。
这种政府强推、企业分裂的局面,恰好定义了AI军事化的当下:技术发展的速度已经快过了法律与伦理的制衡能力。
三、 以色列的AI工厂:量产打击目标
如果说美军在此次行动中主要依赖大模型进行情报分析,那么以色列军方则展示了一套更为激进的AI工业化战争模式。事实上,此次对伊行动被视为美以联合军事AI技术的一次实战汇演。
以色列军方早已深度整合了多套AI系统:
为推动AI的军事应用,以色列国防军的8200情报部队与受雇于谷歌、微软和Meta等大型科技公司的预备役人员共同建立了一个工作室,这一创新中心将专家与人工智能驱动的信息战等相关项目联系起来。
耶路撒冷希伯来大学讲师塔尔·米姆兰曾透露,在他服役时,筛选200个目标需要20名情报官工作约250天;而如今,AI一周内就能生成数百个打击目标。这意味着,在此次对伊朗高层核心区域的饱和式打击中,AI不仅决定了打哪里,甚至通过火力工厂之类的系统,计算出了什么武器、从什么路径打击效果最好。
四、 执刀者仍是人类,但刀已有了思想
尽管此次行动被渲染为AI战争的拐点,但我们仍需保持清醒:算法只是无比锋利的屠刀,执刀者依然是坐在作战室里的人。
AI在此次行动中的角色主要集中在 感知和认知层面——即处理海量数据、识别目标模式、模拟打击后果。而在最终的决策与行动环节,特别是将导弹发射出筒的那一瞬间,依然由人类掌握。
然而,真正的风险在于建议的权力。伦敦国王学院最近的一场核战争模拟显示,包括Claude在内的多种大模型在高压情境下,会迅速倾向于建议发射核弹头。虽然人类保留了最终决定权,但当指挥官面对一个由AI生成、逻辑严密且数据详尽的作战方案时,技术偏见导致的确认偏误将极难抗拒。
硝烟终会散去,唯有和平永恒。愿这片土地告别动荡,让科技之光只照亮安宁之路,让每一个人都能在无争的天空下拥抱日常。世界和平,是全人类最深的期盼。
公众号
技术支持
电话
返回顶部