除了最近几周美国和伊朗之间紧张的军事冲突外,一场密切相关的大范围冲突也已发展起来。争议双方分别是美国国防部和Anthropic,这是一家近年来打着“安全人工智能”旗号快速成长的硅谷公司。 Anthropic 在美国开始对伊朗采取军事行动的前一天被“禁止”,但美军却被指责继续在军事行动中广泛使用该公司的人工智能技术。美伊战争第一天,一枚战斧导弹摧毁了伊拉克南部的一所小学。美国公布的信息显示,美军的双重错误信息和AI决策导致了这场悲剧。那么AI应该参与战争吗?基于人工智能的决策的局限性在哪里?我们是否已经进入了一个名义上人类卷入战争、但人工智能才是拉动战争的时代?格格?美国军方被指控在针对伊朗的军事行动中广泛使用“Maven智能系统”。 3月21日,英国援引一份内部备忘录称,美国国防部计划将数据分析公司Palantir的“Maven智能系统”纳入美军正式注册项目。国防部副部长范伯格表示,此举将有助于在各种军种中整合和应用马文系统。美国中央司令部:针对伊朗的袭击次数是2003年针对伊拉克行动次数的两倍。 值得注意的是,在当前的美伊冲突中,五角大楼曾强调美国主导的卡波“有限袭击”。不过,据美国情报人士透露,“美文智能系统”的广泛使用,让美军在战争中的攻击率明显提高。据美国情报人士透露,在事件发生后的头24小时内此次袭击中,美军袭击了伊朗境内约1000个目标。主持人斯图尔特:我不知道你是如何计算每天 1000 个目标的。但这是一个不寻常的数字吗?加州大学伯克利分校人工智能高级研究员 Sarah Schock:是的。美国中央司令部宣布,这是2003年对伊拉克实施“震慑与敬畏”行动期间实施的袭击次数的两倍。彭博社评论称,美伊之间的这场冲突标志着大规模应用人工智能辅助战争的新时代。 “Mebi智能系统由私营国营公司美国Palantir Technologies开发,并融入到硅谷人工智能公司Anthropic为国防部开发的Claude大规模语言模型中。加州大学伯克利分校人工智能高级研究员Sarah Schock:Mevin智能系统本身旨在集成来自各种来源的数据,包括传感器和卫星。克劳德通过处理这些分布式数据并使人类更容易分析来提高效率。然而,由于人类决策涉及目标的选择和优先级排序过程,因此它也剥夺了人类决策的一些自主权。美国乔治城大学的研究表明,在融合了克劳德大规模语言模型的梅文智能系统的帮助下,一支20人的炮兵队现在可以完成原本需要2000人的任务。美国中央司令部:人类永远做出最终决定。不过,美国中央司令部司令布拉德·库珀海军上将强调,美军在伊朗行动中使用的人工智能工具不会取代人类做出攻击决策。美国中央司令部司令布拉德·库珀海军上将:我们的作战人员使用各种先进的人工智能工具。这些系统可以在几秒钟内处理大量数据,使指挥官能够比敌人更快地筛选复杂信息并做出明智决策。人类总是对拍摄什么、不拍摄什么以及何时拍摄做出最终决定。但借助先进的人工智能工具,通常需要数小时甚至数天的流程可以缩短至几秒钟。科技环境美国逻辑学家COLD FUSION认为,梅文智能系统与克劳德大语言模型的结合,改变了战争逻辑,从确保“火力优势”转变为增加“信息速度”。人工智能正在从根本上缩短战争的“死亡链”。 “杀伤链”的军事概念是指从发现目标到完成攻击的整个过程。即“发现”敌方有价值的军事目标,“定位”其确切位置,决定使用哪种武器,决定如何准确跟踪“目标””,然后“瞄准”,进行“交战”、“匹配”,最后“评估”攻击效果是否成功。在传统战争中,执行这种“杀伤链”需要指挥官进行多次评估和决策,既耗时又需要大量人力资源。随着人工智能的介入,AI几乎可以处理所有方面。《经济学人》防务编辑沙尚克·乔希:AI部队正在整合各种可以指示活动的数据,包括手机记录、数据从船舶和飞机跟踪网站、消费者零售信息以及海军基地和机场附近的购买行为中,人工智能可以自动标记移动目标,指挥官识别出这些目标后,必须决定该目标是否具有足够的价值以及使用什么手段来攻击它。指挥官。人类首席执行官:技术不可信 对全自动武器的担忧 但我们真的可以相信人工智能提供的建议吗? Anthropic 首席执行官达里奥·阿莫代 (Dario Amodei) 坦言,技术不可信。 Dario Amodei,Anthropic 首席执行官:我们很清楚我们的模型在哪里可靠,在哪里不可靠。至于完全自主武器,这确实让我担心。我们(技术)还需要不断进步。技术还没有准备好(在罢工决定中发挥作用)。人工智能决策与美军虚假信息相结合,导致了伊朗小学袭击的悲剧。伊拉克战争第一天,伊朗南部城市米纳布的一所小学成为美国 1000 名袭击目标之一。战斧导弹摧毁了学校。 3月12日,美军欧洲司令部将军格林科维奇证实,伊朗一所小学的袭击是美军所为。据美国方面透露,陆军的基地是虚假信息叠加在人工智能(AI)决策上,以及导致这场悲剧的双重错误。英国人工智能军事应用学者克雷格·琼斯:美国中央司令部没有最新情报,有义务验证和重复目标是否准确、是否符合相关标准。显然这并没有完成。伊朗一所小学遭到美军袭击,“AI参与战争决策”话题成为讨论中心。 Anthropic与美国政府“分手”的故事。据美国消息人士透露,在对伊朗发动军事进攻的前一天,美国政府宣布将提供克劳德大规模语言模型的人工智能公司 Anthropic 列入黑名单。 2月27日,即美伊冲突爆发前一天,特朗普总统在社交媒体上表示:“美国绝不会允许‘控制激进的左翼公司来决定我们的军队如何作战和获胜。我已命令美国政府所有联邦机构立即停止使用Anthropic技术。”不过,据多家媒体报道并得到国防部证实,Anthropic的AI技术继续被美军广泛用于针对伊朗的军事行动。Anthropic提出出于国家安全目的定制AI模型的两条红线。2025年7月14日,美国国防部与Anthropic签署了一份约2亿美元的技术合同,用于实施克劳德大规模语言该公司在“美文智能系统”中推出的用于军事数据分析和目标识别的模型因此成为第一个进入美国机密军事系统的生成式人工智能模型,也被视为人工智能公司正式进入“国家战争决策核心”的重要一步。Anthropic CEO:我们是第一家为国家安全目的定制人工智能模型的公司。在合同中,Anthropic划出了两条红线来回避。该公司的人工智能模型不能用于对美国公民进行大规模监控。该人工智能模型不能用于完全自主武器:无需人工干预即可独立搜索、识别和攻击目标的武器系统。换句话说,Anthropic 并不希望其庞大的 AI 模型成为决定因素,或者扣动扳机。但就在 Anthropic 的两条红线墨迹未干之前,一周后,也就是 2025 年 7 月 23 日,特朗普总统签署了一项关于“唤醒人工智能”的行政命令,并要求联邦机构获得的人工智能系统必须是“非意识形态的”。英国卫报认为,这是特朗普政府试图打破硅谷几十年来捍卫的人工智能价值观:“安全、不作恶和技术中立”。这是什么冲突开始之前。冲突是在美国强行控制委内瑞拉总统马杜罗后爆发的。美国福克斯新闻:这是国防部首次使用人工智能识别(锁定)目标。 2026年1月3日,美军对委内瑞拉发动了名为“绝对解决行动”的军事攻势,猛攻首都加拉加斯,强行抓获委内瑞拉总统马杜罗夫妇。据美方爆料,与克洛德整合后,“梅文子”的“能源系统”在行动前和行动中的情报分析、作战规划、目标排序等方面发挥了重要作用。人类随后内部表达了不满五角大楼首席技术官埃米尔·迈克尔表示,人类内部人士记得,马杜罗上台后,双方的冲突实际上就爆发了。以武力获得权力。当时,Anthropic 的高管打电话给他们的合作伙伴 Palantir,询问这次突袭中是否使用了他们的人工智能软件,而这又是机密信息。 Palantir 的负责人向国防部提出了这个问题,并表示担心这种情况可能会带来重大风险。如果系统突然变得不可用,并且在未来的类似操作中触发某些安全保护机制,或者如果AI模型“未按预期执行、被恶意修改或故意产生不正确的结果”,这种担忧将报告给国防部。陈·赫格斯事件发生后,五角大楼领导人感到震惊。埃米尔·迈克尔此后意识到五角大楼“可能过于依赖单一人工智能供应商”,并且两国之间的信任有所增加。他表示,危机继续加剧。 Anthropic被美国政府“封杀”后,特朗普总统向其发出“最后通牒”三天后,也就是2月27日下午。这个决定做出前不久已经是下午五点了。与五角大楼合作,允许其人工智能模型被美国军方用于“所有合法用途”,否则就会被踢出五角大楼供应链。 2 月 27 日,就在截止日期 5 点前几分钟,美国国防部长赫格斯宣布,“Mevin 智能系统”公司的 Anthropic 技术将在六个月内逐步淘汰,理由是“供应链风险”。限制措施。 Anthropic立即向联邦法院提起诉讼,指控联邦政府滥用权力。戏剧性的是,就在Anthropic被“封禁”几个小时后,硅谷最大的竞争对手、因推出ChatGPT而闻名的OpenAI迅速与国防部达成协议。据美国媒体报道,OpenAI很快就达成了协议。首席执行官萨姆·奥尔特曼不仅允许公司的大型模型连接到国防部的互联网ligent 系统通过亚马逊的 AWS 云业务,但也接受了 Anthropic 此前拒绝的标准:将人工智能用于“所有合法目的”。奥特曼本人后来称该协议是“推测性的”。快点。 “扣动扳机”是人类决定还是人工智能决定?然而,最重要的问题仍未得到解答。当智能系统收集信息,AI分析处理数据,AI列出目标和攻击方式,甚至下达攻击顺序时,AI是否已经成为决意扣动扳机的“智能”? Shashank Joshi,《经济学人》国防编辑:最具争议性的部分总是致命的最终决定。真正重要的一步是您第一次将某件事确定为目标的那一刻。指挥官只需按下红色按钮并一遍又一遍地点击“确认、确认、确认”来批准计算机提供的目标,这不是更好吗?对我来说,这是一件真正人性化的事情。这不是一个德决定。以色列军方使用人工智能系统来检测潜在目标。人工审核只需几十秒。 2023年加沙战争期间,以色列国防军使用名为“Lavender”的人工智能系统来探测“武装嫌疑人”的潜在目标。据六名接受以色列媒体采访的以色列士兵称,该系统的拨号错误率极高。每天生成的大量疑似哈马斯武装分子目标名单的人工审查仅需数十秒。以色列警察所做的只是按下“执行”选项,但他仍然坚持认为整个谋杀链“取决于人类的决策”。 “人工智能会犯错误,”新美国安全中心执行副总裁保罗·谢尔说。 “在生死攸关的时刻,人类将不得不重新考虑生成人工智能的决策。不幸的是,人类还没有学会控制自己的力量,但我们已经创造了放大它的工具。”