主要内容
2024年初,Anthropic、Google、Meta、OpenAI四家美国顶尖AI公司曾联合抵制AI军事化使用。但2024至2025年初,这一局面迅速瓦解,AI军事化使用从被禁止转向常态化。
1月,OpenAI解除“军事战争用途”禁令,被曝与五角大楼合作多个项目;11月,Meta宣布允许美国及盟友用Llama模型开展国防工作,Anthropic同步宣布与防务公司Palantir合作;年底OpenAI再与防务初创公司Anduril达成合作;2025年2月,Google更修订AI原则,首次允许开发可能危害人类的武器技术。
转变背后,高成本是直接动因。AI模型开发耗资巨大,而防务部门作为“需求大且能产生收益的应用领域”,长期以来是推动通用技术落地的关键(如美国国防部早年对晶体管、微处理器的采购)。防务合同的“软预算约束”和模糊的成功标准,使其成为新技术理想客户,这对急需大额耐心资本的AI初创公司而言尤为关键。
但更深层原因是美国从“新自由主义”转向地缘政治竞争。2010年代前,“硅谷共识”曾推动科技与政治精英支持技术全球化,认为AI能构建美国主导的无国界商业。如今,这一共识瓦解,科技公司与国家利益深度绑定,AI军事化成为大国竞争的新战场。