1引言:五角大楼的 AI 新订单与被遗忘的 Anthropic
2026 年 5 月,五角大楼宣布了一项震动整个 AI 行业的合同签署:Nvidia、微软和 AWS 三家科技巨头同时获得了美国国防部的机密 AI 部署合同。这份合同的核心内容是:为美军构建和部署基于 AI 的情报分析、目标识别、态势感知和决策辅助系统,并且这些系统将在机密网络(Classified Network)上运行。
这条新闻的真正重量不在于合同金额(虽然那也足够惊人),而在于签约者的名单:Nvidia 提供 AI 芯片和推理基础设施,微软提供 Azure Government 云平台和 AI 服务,AWS 提供 GovCloud 和 Bedrock 模型服务。三家公司形成了一个完整的国防 AI 供应链——从芯片到云平台到模型服务,全部由这三家把控。
但真正引发行业震动的不是谁签了合同,而是谁没有签——Anthropic 缺席了。
Anthropic 是全球最受瞩目的 AI 安全公司之一,其 Claude 系列模型在安全性、可靠性和指令遵循方面被广泛认为超越了 GPT-4 级别。在商业和企业市场,Claude 正在快速侵蚀 OpenAI 的市场份额。但在国防 AI这个最重要的政府市场,Anthropic 却不在五角大楼的签约名单上。
这不是一个偶然的遗漏。 Anthropic 从成立之初就确立了明确的 AI 安全立场——其宪法 AI(Constitutional AI)框架要求模型拒绝生成可能造成伤害的内容,包括军事应用中的致命性决策。虽然 Anthropic 没有像 Google 早期员工抗议 Project Maven 那样公开发表反军事合作声明,但其企业文化、技术路线和产品哲学都表明:Anthropic 对军事 AI 的合作态度远比 Google、微软和 AWS 保守。
与此同时,Google 正在积极扩大五角大楼的 AI 访问权限——在 Anthropic 拒绝军事合作后,Google 接手了原本可能由 Anthropic 承担的部分 AI 项目。这揭示了一个残酷的行业现实:在国防 AI 这个千亿级市场中,道德立场是奢侈品,商业利益才是硬通货。
我的核心观点是:五角大楼 AI 签约事件不仅是一份商业合同,它是AI 行业权力格局的重新洗牌。它标志着国防 AI 正在从「实验阶段」进入「大规模部署阶段」,而谁能主导这个市场,谁就能在下一个十年的 AI 竞赛中占据制高点。
本文将从技术架构、商业竞争、安全争议和地缘政治四个维度,深度分析这一事件的意义,并对未来 3-5 年的国防 AI 竞争格局做出预判。
理解这条新闻的关键不在于「谁签了合同」,而在于「谁没有签」以及「为什么没有签」。Anthropic 的缺席是本文分析的核心线索。
国防 AI 是一个高度敏感的领域。本文基于公开信息进行分析,不涉及任何机密或内部信息。所有分析和预判均基于公开报道和行业趋势,不代表对任何公司的立场评价。
2合同解析:五角大楼 AI 签约的技术内涵
五角大楼的 AI 合同不是单一项目,而是一个覆盖多个国防 AI 场景的综合计划。要理解这个合同的分量,我们需要先拆解它的技术内涵。
合同的核心目标是:在机密网络上部署 AI 系统,用于情报分析、目标识别、态势感知和决策辅助。这四个场景覆盖了现代军事行动的核心 AI 需求。
情报分析是 AI 在军事中最成熟也最广泛的应用。传统的军事情报分析依赖人类分析师阅读大量文本报告、卫星图像和通信截获数据,这个过程耗时且容易遗漏关键信息。AI 可以自动分析多源情报数据,识别模式和异常,生成情报摘要,并预测潜在威胁。Nvidia 在情报分析中的角色是提供推理芯片和加速硬件,使得 AI 模型能够在边缘设备(如前线指挥所)上实时运行。
目标识别是 AI 在军事中最具争议也最具价值的应用。通过计算机视觉技术,AI 可以自动识别卫星图像、无人机视频和传感器数据中的目标(如车辆、武器设施、人员集结等)。微软在目标识别中的角色是提供 Azure AI 视觉服务和定制化的模型训练平台,使得五角大楼能够在安全环境中训练和部署目标识别模型。
态势感知是 AI 在军事中最具战略意义的应用。通过融合多源传感器数据(雷达、卫星、地面传感器、电子侦察等),AI 可以实时构建战场态势图,识别敌方行动意图,并预测战场演变趋势。AWS 在态势感知中的角色是提供 GovCloud 的云计算能力和Bedrock 模型服务,使得五角大楼能够大规模部署态势感知 AI 系统。
决策辅助是 AI 在军事中最敏感也最前沿的应用。通过博弈论、优化算法和强化学习,AI 可以为指挥官提供行动方案的评估和建议。但这也是最接近「自主武器」边界的领域——如果 AI 不仅能「建议」还能「执行」,那么它就从一个辅助工具变成了一个决策主体。
这三家公司的分工揭示了一个精心设计的生态布局:Nvidia 是底层基础设施(芯片和硬件),微软是中台服务平台(云平台和 AI 工具链),AWS 是上层模型服务(大模型推理和应用)。三者形成了一个从底层到上层的完整技术栈,几乎覆盖了国防 AI 的所有技术环节。
这种「三巨头」模式在国防 AI 领域并非首次,但这一次的特点是:合同范围更广、合作深度更深、部署速度更快。五角大楼明确表达了加速 AI 部署的意愿——不再是实验室里的概念验证,而是实战环境中的大规模应用。
这意味着什么? 这意味着AI 正在成为美军的「标准装备」,就像GPS 和无人机在过去 20 年成为标准装备一样。但 AI 的影响将远超 GPS 和无人机——因为它不是一个单一的工具,而是一种全新的作战范式。
如果你对国防 AI 的技术细节感兴趣,建议重点关注边缘 AI 推理(Edge AI Inference)——这是当前国防 AI 部署的最大技术瓶颈。在战场环境中,AI 模型必须在无网络连接、低功耗、高延迟的条件下运行,这对硬件和算法都提出了极高的要求。
不要将「AI 决策辅助」等同于「AI 自主武器」。前者是提供建议,后者是自主执行。五角大楼目前的 AI 部署主要集中在辅助和分析层面,尚未涉及自主打击决策。但这并不意味着未来不会涉及——技术边界正在快速推进。
3Anthropic 为何缺席:安全立场与商业利益的碰撞
Anthropic 的缺席是本次五角大楼签约事件中最值得深思的现象。 要理解原因,我们需要从三个维度进行分析:企业立场、技术路线和地缘政治。
第一个维度:企业立场——Anthropic 的 AI 安全 DNA。
Anthropic 由前 OpenAI 员工创立,其核心理念是:AI 安全不应该是商业化的事后补充,而应该是设计的核心原则。这一理念体现在其宪法 AI(Constitutional AI)框架中——通过一套预设的「宪法」原则来引导和约束 AI 的行为,确保其不会生成有害或危险的内容。
在军事 AI 的语境下,Anthropic 的宪法原则意味着:模型应该拒绝参与可能直接导致人类伤害的决策,包括目标打击决策和武器控制。这不是一个法律上的禁止(没有法律阻止 Anthropic 与国防部合作),而是一个道德和技术上的自我约束。
对比 Google 的历史:2018 年,Google 员工因Project Maven(与五角大楼合作的 AI 无人机图像分析项目)发起大规模抗议,最终导致 Google 决定不续签合同并发布了AI 伦理原则(承诺不将 AI 用于武器)。但到了 2026 年,Google 的立场发生了180 度转变——在 Anthropic 拒绝军事合作后,Google 主动接手了五角大楼的 AI 项目,并扩大了 AI 访问权限。
这种转变的原因很现实:国防 AI 市场在 2026 年预计达到 280 亿美元,并且以每年 85% 的速度增长。Google 不可能长期忽视这个市场。当 Google 意识到道德立场的商业代价太高时,它选择了调整立场。
Anthropic 还没有走到这一步。 它的企业文化和产品哲学仍然根植于 AI 安全,这使得它在军事合作上比 Google、微软和 AWS 更加谨慎。
第二个维度:技术路线——Anthropic 的模型是否适合军事场景?
Anthropic 的 Claude 模型在安全性、对话质量和指令遵循方面表现优异,但在军事 AI 所需的特定能力上可能不如竞争对手:
军事 AI 需要的是:多模态感知能力(处理卫星图像、雷达信号、电子侦察数据)、实时推理能力(在毫秒级时间内做出分析)、边缘部署能力(在无云连接的战场上运行)和领域适配能力(针对军事场景进行微调)。
Nvidia 在硬件加速和多模态推理方面具有天然优势——其 GPU 和 TensorRT 推理引擎是军事边缘 AI 部署的首选平台。
微软 在企业级云平台和定制化 AI 服务方面经验丰富——其 Azure Government 已经为多个国防项目提供了安全合规的云计算服务。
AWS 在大规模模型服务和政府云方面领先——其 GovCloud 和 Bedrock 平台已经获得了多项国防安全认证。
Anthropic 的优势(安全性和对话质量)在军事场景中的优先级相对较低,而它的短板(多模态能力和边缘部署)恰好是军事 AI 的核心需求。
第三个维度:地缘政治——美国国防部的供应商选择逻辑。
五角大楼在选择 AI 供应商时,安全认证(Security Clearance)是第一道门槛。Nvidia、微软和 AWS 都拥有最高级别的国防安全认证,能够为机密网络提供符合国防部标准的服务。
Anthropic 目前可能尚未获得五角大楼所需的全部安全认证,或者其供应链审查(Supply Chain Review)尚未完成。在国防采购中,安全认证通常需要数月甚至数年的时间,而五角大楼的 AI 部署计划等不了那么久。
此外,五角大楼可能担心 Anthropic 的安全立场不够「稳定」。 如果 Anthropic 在未来改变了对军事合作的态度(就像 Google 一样),那么已经部署的系统将面临服务中断的风险。相比之下,Nvidia、微软和 AWS 的国防合作历史更长、立场更稳定,是更可靠的长期合作伙伴。
综合三个维度的分析,Anthropic 的缺席是多重因素叠加的结果:企业安全立场使其在军事合作上更加谨慎,技术路线使其在军事场景中的竞争力相对较弱,安全认证和供应链审查使其在短期内无法满足五角大楼的部署要求。
但这不意味着 Anthropic 永远退出国防 AI 市场。 随着技术路线的演进(多模态能力提升、边缘部署方案完善)和商业压力的增加(股东期望、市场机会),Anthropic 在未来可能会重新评估其军事合作策略。
# 国防 AI 对抗鲁棒性测试 — 模拟敌方对抗攻击
import numpy as npnimport torchnfrom torch.autograd import Variablenndef fgsm_attack(model, data, target, epsilon=0.03):
"""FGSM 快速梯度符号攻击 — 测试模型的对抗鲁棒性"""
data.requires_grad = True
output = model(data)
loss = torch.nn.functional.cross_entropy(output, target)
model.zero_grad()
loss.backward()
# 生成对抗样本: x_adv = x + epsilon * sign(grad)
data_grad = data.grad.data
perturbation = epsilon * data_grad.sign()
adversarial_data = data + perturbation
return adversarial_data, perturbationnndef test_robustness(model, test_loader, epsilon=0.03):
"""评估模型在不同攻击强度下的鲁棒性"""
correct = 0
total = 0
for data, target in test_loader:
data, target = Variable(data), Variable(target)
adv_data, _ = fgsm_attack(model, data, target, epsilon)
output = model(adv_data)
pred = output.argmax(dim=1)
correct += (pred == target).sum().item()
total += target.size(0)
return correct / total if total > 0 else 0nn# 测试不同攻击强度下的准确率nfor eps in [0.01, 0.03, 0.05, 0.1, 0.3]:
accuracy = test_robustness(model, test_loader, eps)
print(f"攻击强度 ε={eps:.2f} → 准确率: {accuracy:.2%}")
理解 Anthropic 的立场需要放在更大的 AI 安全讨论中看待。Anthropic 不是唯一对军事 AI 持谨慎态度的公司——Stability AI、Hugging Face等也都表达了对 AI 武器化的担忧。但商业现实往往会迫使企业调整立场。关注 Anthropic 在未来 12 个月内是否会改变立场,是判断国防 AI 格局演变的重要指标。
不要因为 Anthropic 的缺席就认为国防 AI 缺乏安全约束。五角大楼有自己的AI 伦理框架和审查流程(如 DoD 的 Responsible AI 战略),但这些框架的执行力度和透明度仍然存在争议。
4三巨头的国防 AI 生态位:Nvidia × 微软 × AWS
Nvidia、微软和 AWS 三家在五角大楼合同中的角色不是竞争关系,而是互补关系。它们共同构成了一个完整的国防 AI 技术栈。理解它们各自的生态位和竞争优势,对于预判未来国防 AI 市场的格局演变至关重要。
Nvidia 的生态位:AI 芯片与推理基础设施。
Nvidia 在国防 AI 中的核心价值是算力。其 GPU 系列(H100、H200、B200)是目前训练和部署大规模 AI 模型的首选硬件。在军事场景中,Nvidia 的角色更加聚焦于边缘推理——将 AI 模型部署到前线设备(如无人机、战车、指挥所)上,使其能够在无云连接的条件下独立运行。
Nvidia 的竞争优势在于:硬件性能的绝对领先(GPU 算力每年提升 2-3 倍)、软件生态的深厚积累(CUDA、TensorRT、Triton 推理服务器)和国防合作的长期经验(Nvidia 与五角大楼的合作可以追溯到2010 年代初)。
微软的生态位:云平台与 AI 工具链。
微软在国防 AI 中的核心价值是平台。其 Azure Government 是美国政府机构的首选云平台,已经获得了最高级别的安全认证(IL5、IL6、FedRAMP High)。在军事 AI 场景中,微软提供的是模型训练、部署和管理的端到端平台——从数据预处理到模型训练到在线推理到监控和更新。
微软的竞争优势在于:政府客户的深厚关系(微软是美国政府最大的 IT 供应商之一)、企业级 AI 工具链的完整性(Azure ML、Azure AI Services、GitHub Copilot)和混合云部署能力(Azure Stack 可以在断网环境中运行)。
AWS 的生态位:大规模模型服务与政府云。
AWS 在国防 AI 中的核心价值是规模。其 GovCloud 是美国最大的政府专用云平台,服务超过10,000 个政府机构。在军事 AI 场景中,AWS 提供的是大规模模型推理和数据分析服务——通过 Bedrock 平台,五角大楼可以同时运行多个大模型,进行多场景的情报分析和决策辅助。
AWS 的竞争优势在于:政府云的市场份额领先(AWS GovCloud 占据美国政府云市场的最大份额)、模型服务的多样性(Bedrock 支持多个基础模型,包括自研和第三方模型)和全球基础设施的覆盖(AWS 在全球拥有最多的区域和可用区,支持全球军事行动的 AI 部署)。
三巨头的协同效应:
| 维度 | Nvidia | 微软 | AWS |
|---|---|---|---|
| 核心价值 | 算力(芯片) | 平台(云+工具链) | 规模(模型服务) |
| 技术优势 | GPU 性能 + CUDA 生态 | Azure Government + Azure ML | GovCloud + Bedrock |
| 部署场景 | 边缘推理(前线设备) | 中台训练和管理(安全环境) | 大规模推理(指挥中心) |
| 安全认证 | 已获多项国防认证 | IL5/IL6/FedRAMP High | 多项国防安全认证 |
| 国防历史 | 2010 年代初开始合作 | JVEDI 项目(60 亿美元合同) | JEDI/JWCC 项目(90 亿美元合同) |
| 竞争壁垒 | 硬件性能 + 软件生态 | 政府关系 + 企业工具链 | 市场份额 + 全球覆盖 |
这三家公司形成了一个「铁三角」:Nvidia 提供底层算力,微软提供中台平台,AWS 提供上层服务。任何一家都无法单独替代另外两家,因为它们的技术栈和生态位完全不同。
对竞争者的启示是:如果你想在国防 AI 市场中与这三家公司竞争,你不能在它们的强项上正面交锋(你不可能在 GPU 性能上超越 Nvidia,在政府关系上超越微软,在云市场份额上超越 AWS)。你必须找到一个差异化的生态位——比如专注于特定军事场景的 AI 解决方案(如电子战 AI、网络战 AI或后勤优化 AI),或者提供一个开源替代方案(如基于开源模型的国防 AI 平台)。
但现实是残酷的:国防采购的门槛极高(安全认证、合规审查、长期合作关系),新进入者很难在短时间内打破三巨头的垄断格局。这也是为什么Anthropic、OpenAI 和 Google 都在通过不同策略(技术差异化、政治游说、开源社区)来争取在国防 AI 市场中的立足之地。
# 国防 AI 多源情报融合分析 — 卫星+雷达+通信数据的联合处理
from typing import List, Dictnimport numpy as npnfrom dataclasses import dataclassnn@dataclassnclass IntelligenceReport:
source: str # 数据来源: satellite/radar/comms
confidence: float # 置信度 0-1
threat_level: int # 威胁等级 1-5
location: tuple # (lat, lon)
timestamp: floatnnclass IntelligenceFusionEngine:
"""多源情报融合引擎 — 贝叶斯推理融合"""
def fuse_reports(self, reports: List[IntelligenceReport]) -> Dict:
"""融合多源情报,计算综合威胁评估"""
# 贝叶斯融合: P(威胁|多源) ∝ P(多源|威胁) × P(威胁)
prior = 0.3 # 先验威胁概率
likelihoods = []
for report in reports:
# 基于来源可靠性和置信度计算似然
source_weight = self._get_source_weight(report.source)
likelihood = source_weight * report.confidence
likelihoods.append(likelihood)
# 综合后验概率
combined = 1 - np.prod([1 - l for l in likelihoods])
posterior = (combined * prior) / (combined * prior + (1 - combined) * (1 - prior))
# 威胁等级加权平均
avg_threat = np.average(
[r.threat_level for r in reports],
weights=[r.confidence for r in reports]
)
return {
"posterior_threat_prob": round(posterior, 4),
"average_threat_level": round(avg_threat, 2),
"source_count": len(reports),
"assessment": self._assess(posterior, avg_threat)
}
def _get_source_weight(self, source: str) -> float:
weights = {"satellite": 0.9, "radar": 0.85, "comms": 0.7}
return weights.get(source, 0.5)
def _assess(self, prob: float, level: float) -> str:
if prob > 0.8 and level > 4: return "极高威胁 — 立即响应"
if prob > 0.6 and level > 3: return "高威胁 — 加强监控"
if prob > 0.4 and level > 2: return "中等威胁 — 持续关注"
return "低威胁 — 常规监测"
n# 使用示例nreports = [
IntelligenceReport("satellite", 0.92, 4, (35.6, -118.2), 1714700000),
IntelligenceReport("radar", 0.85, 3, (35.7, -118.1), 1714700060),
IntelligenceReport("comms", 0.70, 4, (35.5, -118.3), 1714700120),
]
engine = IntelligenceFusionEngine()
result = engine.fuse_reports(reports)
print(f"融合评估: {result}")
如果你是一个 AI 创业者,想要进入国防 AI 市场,建议的切入点是垂直场景的 AI 解决方案——选择一个三巨头尚未深入覆盖的军事场景(如后勤优化、医疗诊断或语言翻译),打造一个高度专业化的 AI 产品。不要试图做「通用国防 AI 平台」——那是三巨头的领地。
国防 AI 市场虽然巨大,但进入门槛极高且销售周期极长(通常需要 18-36 个月)。如果你没有国防行业经验、安全认证和政府关系,那么进入这个市场的失败率极高。建议在进入之前,充分评估时间成本、资金成本和合规成本。
5安全争议:国防 AI 的伦理与风险边界
国防 AI 的大规模部署引发了深刻的安全和伦理争议。这些争议不是学术层面的理论讨论,而是直接关系到人类生命和国际安全的现实问题。
第一个争议:自主武器的边界在哪里?
国防部目前部署的 AI 系统主要是辅助性的——它们分析情报、识别目标、提供建议,但不直接执行打击决策。然而,辅助和自主之间的边界正在变得模糊。
当一个 AI 系统能够以 99.9% 的准确率识别目标,并实时向指挥官提供打击建议时,指挥官有多大的空间去质疑 AI 的判断? 在高压的战场环境中,人类指挥官可能会过度依赖 AI 的建议,导致事实上的自主决策——即使技术上 AI 只是在「建议」。
这种现象被称为「自动化偏见」(Automation Bias):人类倾向于过度信任自动化系统的输出,即使系统在特定场景下可能出错。在军事场景中,自动化偏见的后果可能是灾难性的——AI 可能将一个民用设施误识别为军事目标,而指挥官在时间压力下可能不会充分核实就做出打击决策。
第二个争议:AI 模型的安全性如何保障?
军事 AI 系统面临的安全威胁远超商业 AI 系统:
对抗性攻击(Adversarial Attack):敌方可以通过微小的输入扰动(如在军事车辆上添加特殊图案),使 AI 模型错误分类(将战车识别为货车)。研究表明,当前的计算机视觉模型在对抗性攻击面前极其脆弱——一个肉眼不可见的像素级修改就能让模型的识别准确率从 95% 降到 5%。
数据投毒(Data Poisoning):如果敌方能够渗透到训练数据中(如篡改卫星图像的标注),就可以在模型中植入后门——使其在特定条件下(如遇到特定目标时)做出错误判断。
模型窃取(Model Extraction):敌方可以通过反复查询 AI 系统,推断出模型的结构和参数,从而复制模型并找到其弱点。
第三个争议:谁为 AI 的错误负责?
如果一个 AI 辅助的军事决策导致了平民伤亡,责任归属是什么?是AI 系统的开发者?部署 AI 的军事指挥官?批准采购的国防部官员?还是AI 系统本身?
目前的法律框架没有明确的答案。 国际人道法(International Humanitarian Law)要求军事行动遵守区分原则(区分军事目标和平民)和比例原则(军事利益与附带损害的比例),但这些原则的执行主体是人类。当 AI 系统深度参与决策过程时,人类责任链被稀释了。
第四个争议:AI 军备竞赛的失控风险。
当一个大国开始大规模部署军事 AI时,其他大国必然跟进。这不是一个可选项,而是一个生存必需——如果你不使用 AI,你的对手会。这种安全困境(Security Dilemma)可能导致AI 军备竞赛,其规模和速度可能超过核武器竞赛。
与核武器竞赛的关键区别在于:核武器的使用门槛极高(政治代价巨大),而 AI 武器的使用门槛较低(可以逐步升级,从情报分析到目标识别到决策辅助到自主打击)。这意味着AI 军备竞赛的升级路径更加平滑,也更容易失控。
我的观点是:国防 AI 的安全问题不是一个技术问题,而是一个治理问题。 技术可以不断进步,但如果没有有效的治理框架,技术的进步反而会增加风险。我们需要的是国际层面的 AI 军事使用规范——类似于核不扩散条约那样的多边协议,对军事 AI 的开发、部署和使用进行国际约束。
但现实是:在当前的地缘政治环境下,达成这样的国际协议极其困难。中美俄三大军事强国在 AI 领域的竞争远大于合作,而没有三大国的参与,任何国际协议都缺乏实质约束力。
如果你关注国防 AI 的安全问题,建议关注DoD 的 Responsible AI 战略和NIST 的 AI 风险管理框架(AI RMF)。这两个框架是当前最权威的国防 AI 安全指南,虽然不是法律,但它们正在塑造行业标准和采购要求。
国防 AI 的安全风险不是未来的问题,而是现在的问题。对抗性攻击、数据投毒和模型窃取已经在实际军事场景中被观察到。不要认为「AI 足够安全」才部署——安全是持续的过程,不是最终的状态。
6对比分析:全球主要国家的国防 AI 战略对比
国防 AI 不是美国独有的战略。全球主要军事强国都在加速推进 AI 在军事中的应用。对比各国的战略,可以帮助我们预判全球国防 AI 的竞争格局。
美国的国防 AI 战略以技术领先和快速部署为核心。五角大楼的Joint AI Center(JAIC)和 Chief Digital and AI Office(CDAO)是推动国防 AI 的核心机构。美国的优势在于技术生态的完整性——从芯片(Nvidia)到云平台(AWS、Azure)到模型(OpenAI、Anthropic、Google),美国拥有全球最完整的 AI 产业链。但美国的挑战在于采购流程的官僚化和安全认证的复杂性,这使得新技术的部署速度不如商业市场那么快。
中国的国防 AI 战略以军民融合和自主创新为核心。军民融合战略要求民用 AI 技术快速向军事领域转化,而自主创新则要求在核心技术和供应链上不受制于人。中国的优势在于AI 人才的规模(全球最大的 AI 研究人员群体)和政府资源的动员能力(可以集中力量推进重点项目)。但中国的挑战在于高端芯片的供应链受制(美国的出口管制限制了先进 GPU 的获取)和基础模型的创新能力(虽然应用层领先,但底层技术仍有差距)。
俄罗斯的国防 AI 战略以不对称优势和实用主义为核心。俄罗斯在AI 技术上不如中美,但它在电子战、网络战和无人系统方面有丰富的实战经验。俄罗斯正在将 AI 应用于无人机集群、自动化指挥系统和信息战,其特点是快速部署、实用导向、不拘泥于技术完美。
英国的国防 AI 战略以联盟合作和伦理领先为核心。英国是五眼联盟(Five Eyes)的重要成员,与美国共享情报和 AI 技术。同时,英国在AI 伦理方面处于全球领先地位——其 AI Safety Institute(AISI)是全球首个国家级 AI 安全评估机构,负责对大模型进行安全性评估。英国试图在技术创新和伦理约束之间找到一个平衡点。
以色列的国防 AI 战略以实战驱动和快速迭代为核心。以色列拥有全球最密集的军事 AI 部署经验——从铁穹防御系统的 AI 目标识别到Unit 8200(以色列军事情报部门)的 AI 数据分析,以色列的 AI 系统经历了实战检验。以色列的优势在于实战反馈的快速迭代——其 AI 系统可以在数天内完成从部署到改进的循环,这是和平时期的军事系统无法比拟的优势。
对比表格:
| 国家 | 战略核心 | 技术优势 | 主要挑战 | 部署速度 |
|---|---|---|---|---|
| 美国 | 技术领先 | 完整产业链 | 采购官僚化 | 中等 |
| 中国 | 军民融合 | 人才规模 | 芯片供应链 | 快 |
| 俄罗斯 | 不对称优势 | 实战经验 | 技术基础薄弱 | 快(实用导向) |
| 英国 | 联盟+伦理 | AI 安全评估 | 技术规模有限 | 中等 |
| 以色列 | 实战驱动 | 快速迭代 | 市场规模小 | 极快 |
我的核心预判是:未来 5 年,中美将在国防 AI 领域形成「双极格局」——美国在技术深度和产业链完整性上领先,中国在部署速度和规模上领先。俄罗斯和以色列将在特定场景(电子战、无人系统)保持竞争优势,但无法在整体实力上与中美抗衡。英国和欧洲国家将依赖与美国的联盟关系来弥补自身的技术短板。
如果你关注国际国防 AI 竞争,建议重点关注中国在高端芯片供应链上的突破——这是改变中美国防 AI 竞争格局的关键变量。如果中国能够在3-5 年内实现先进 AI 芯片的自主生产,那么中美在国防 AI 领域的技术差距将大幅缩小。
国防 AI 的国际竞争不是零和博弈。AI 军备竞赛的升级可能增加误判和冲突的风险,最终损害所有参与方的安全利益。关注国际层面的 AI 军事治理讨论,这是降低全球安全风险的重要途径。
7Google 的角色转变:从拒绝到拥抱军事 AI
Google 在军事 AI 问题上的立场转变是本次五角大楼签约事件中最值得关注的外部因素。2018 年,Google 员工因 Project Maven 发起大规模抗议,最终导致 Google 不续签合同并承诺不将 AI 用于武器。但到了 2026 年,Google 主动接手了五角大楼的 AI 项目,并扩大了 AI 访问权限。
这一转变的深层逻辑在于商业竞争的压力。
在 2018 年,Google 的核心业务(搜索、广告、Android、YouTube)不受军事合同影响。放弃 Project Maven 的商业代价很小,而道德收益很大(员工满意度、公众形象、伦理品牌)。
但在 2026 年,情况发生了根本变化。Google Cloud 正在激烈追赶 AWS 和 Azure,而国防和政府市场是云增长的关键驱动力。如果 Google 继续拒绝军事 AI 合作,它将把这个市场拱手让给 AWS 和 Azure——这不仅是收入损失,更是战略地位的丧失。
更深层的原因是:AI 行业的竞争格局在 2026 年发生了根本变化。OpenAI 凭借 GPT 系列主导了消费者和企业 AI 市场,Anthropic 凭借 Claude 在安全性和可靠性上建立了差异化优势,而 Google 必须找到新的增长引擎。国防 AI 市场——一个预计 2026 年达到 280 亿美元、年增长率 85% 的市场——是 Google 不能放弃的战略高地。
Google 的立场转变揭示了一个更广泛的行业趋势:在AI 行业的白热化竞争中,道德立场正在被商业现实挤压。当市场足够大、增长足够快、竞争足够激烈时,几乎没有公司能够长期维持「不合作」的立场。
Google 的转变对行业的影响是深远的:
第一,它为其他公司树立了「先拒绝后合作」的先例。 如果 Google 可以在 8 年后改变立场,那么其他公司(包括 Anthropic)也可能在未来改变立场。这降低了坚守道德立场的社会成本——因为「大家都这么做了」。
第二,它加速了国防 AI 的技术成熟。 Google 拥有全球最强大的 AI 研究能力(DeepMind、Google Research、Gemini 模型),它的加入意味着国防 AI 的技术水平将大幅提升。这不是一个纯粹的正面影响——技术能力的提升也意味着AI 军事应用的能力边界在扩展。
第三,它加剧了 AI 行业的「军事化」趋势。 当所有主要 AI 公司(Google、微软、AWS、OpenAI)都参与到国防 AI 中时,整个行业的技术路线、人才流动和研发方向都会向军事需求倾斜。这可能意味着民用 AI 的创新资源被军事需求分流。
我的观点是:Google 的立场转变不是一个孤立事件,而是AI 行业「军事化」趋势的缩影。随着国防 AI 市场的快速扩张,越来越多的 AI 公司将面临「合作还是拒绝」的选择。而在商业竞争的压力下,拒绝的选项正在变得越来越不现实。
这引出了一个更深层的问题:谁应该为军事 AI 的道德边界负责? 是公司?是政府? 是国际组织?还是整个社会?
目前没有一个明确的答案。 但可以确定的是:如果没人负责,那么就不会有边界。
关注 Google 在国防 AI 中的具体角色——它是提供通用 AI 平台还是定制化的军事 AI 系统?这两者的道德含义和法律责任完全不同。通用平台(如 Gemini API)的军事应用责任主要在用户,而定制化军事 AI 系统责任在开发者。
不要简单地将 Google 的立场转变解读为「道德堕落」。这是一个复杂的商业决策,涉及股东利益、员工期望、公众形象和战略竞争。理解其背后的商业逻辑,比简单的道德评判更有助于预判行业趋势。
8未来预判:国防 AI 竞争的 3-5 年趋势
基于五角大楼签约事件的分析,我对未来 3-5 年国防 AI 竞争格局的预判如下:
预判一:三巨头的「铁三角」将在 2-3 年内面临挑战。
Nvidia-微软-AWS 的分工虽然互补,但每一方都有动力向其他方的生态位扩展。Nvidia 正在开发自己的云平台服务(DGX Cloud),微软正在自研 AI 芯片(Maia),AWS 也在加强自己的模型服务(Bedrock)。这种生态位重叠将在未来 2-3 年内引发三巨头之间的竞争,而不是纯粹的互补。
预判二:Anthropic 将在 12-18 个月内重新评估军事合作立场。
商业压力(股东期望、市场机会)和技术演进(多模态能力提升、边缘部署方案完善)将促使 Anthropic 在 12-18 个月内重新评估其军事合作策略。它可能不会直接参与「致命性」AI 项目,但可能会在情报分析、后勤保障或网络安全等非致命性领域寻求合作。
预判三:开源国防 AI 将在 2-3 年内成为重要力量。
Meta 的 LLaMA 系列和Mistral 的开放模型正在降低 AI 模型的获取门槛。在国防领域,开源模型的价值在于不依赖特定供应商、可自主审计安全性和可定制化部署。一些国家(特别是中国和俄罗斯)将大力推动开源国防 AI 的发展,以减少对西方供应商的依赖。
预判四:AI 军备竞赛将在 3 年内进入「自主决策」阶段。
当前各国的军事 AI 部署主要集中在辅助和分析层面,但3 年内,AI 将开始参与战术决策(如目标优先级排序、资源分配和行动方案评估)。这将是从「辅助」到「决策」的关键跃迁,也是AI 军事应用最危险的阶段——因为人类指挥官可能开始过度依赖 AI 的判断。
预判五:国际层面的 AI 军事治理将在 3-5 年内取得初步进展。
联合国、G7 和OECD 将推动建立军事 AI 的国际行为准则。虽然这些准则缺乏法律约束力,但它们将为各国的军事 AI 开发和部署提供道德和规范框架。中美俄三国的参与程度将决定这些准则的实际效力。
预判六:AI 将成为大国军事竞争的核心变量。
就像核武器在 20 世纪定义了大国军事竞争的格局一样,AI 将在 21 世纪定义大国军事竞争的格局。谁在 AI 技术上领先,谁就能在情报优势、决策速度和作战效率上获得决定性优势。这意味着AI 技术竞赛将直接决定全球军事力量的平衡。
我的核心预判是:国防 AI 的竞争不是单一维度的(芯片、模型、平台),而是全产业链的竞争。最终胜出的国家不是在某个环节领先的国家,而是在从芯片到应用到治理的完整链条上都具备竞争力的国家。
从这个角度看,美国目前的领先是全方位的,但中国的追赶速度是最快的。未来 5 年的关键变量是:中国能否在芯片供应链上突破,以及美国能否在 AI 治理上建立全球领导地位。
这两件事的结果,将决定21 世纪全球军事 AI 的竞争格局。
如果你从事 AI 行业,建议关注国防 AI 的政策和技术趋势——即使你的产品不直接面向军事市场,国防 AI 的技术创新和采购标准也会深刻影响商业 AI 的发展方向。例如,边缘 AI 推理技术的军事需求将推动该技术向商业市场溢出。
国防 AI 的未来发展充满不确定性。技术突破、政治变局和国际关系的变化都可能在短期内改变竞争格局。任何预判都应该被视为概率性的参考,而非确定性的预测。保持对行业动态的持续关注是做出正确决策的前提。
9深度思考:AI 军事化的终极问题
在技术分析和商业竞争之外,五角大楼签约事件引出了一个更深层的问题:AI 的军事化对人类意味着什么?
这个问题没有简单的答案。 但我们可以从三个层面来思考:
第一个层面:效率与道德的永恒张力。
军事行动的核心诉求是效率——在最短的时间内、以最小的代价、达成最大的战果。AI 在提升军事效率方面具有无可比拟的优势:它可以以人类无法企及的速度分析情报、识别目标、评估方案和预测结果。
但效率不是军事行动的唯一维度。 道德、法律和人道主义同样是不可或缺的约束条件。当 AI 将军事行动的效率提升到一个新的量级时,道德和法律约束是否还能有效发挥作用?
这是一个没有标准答案的问题。 但可以确定的是:如果效率的提升超过了道德约束的演进速度,那么风险就会增加。
第二个层面:人类在战争中的角色转变。
从冷兵器到火器、从机械化到信息化、从信息化到智能化,每一次技术革命都改变了人类在战争中的角色。AI 军事化带来的改变是前所未有的——它不仅仅改变了武器的形态,更可能改变决策的主体。
当 AI 能够比人类更快、更准地做出军事决策时,人类指挥官的角色将从决策者转变为监督者。这本身不一定是一个问题——在民航领域,自动驾驶系统已经承担了大部分的飞行决策,人类飞行员的角色是监控和应急处理。
但战争与民航的根本区别在于:战争涉及有意识的敌方对抗。敌方会主动寻找 AI 系统的弱点并加以利用,而民航面对的是自然环境和机械故障。这种对抗性的环境使得 AI 军事决策的安全挑战远超和平时期的自动化系统。
第三个层面:技术中立性的幻象。
一个常见的论点是:「技术本身是中立的,关键在于如何使用。」 这个论点在理论上成立,但在实践中值得质疑。
每一种技术都带有其内在的倾向性。 AI 的内在倾向是效率最大化——它被训练来在给定约束下找到最优解。当这个最优解涉及人类生命时,AI 的「效率最大化」逻辑可能与人类的道德直觉发生冲突。
这不是 AI 的「错误」,而是其设计逻辑的必然结果。 一个被训练来最小化误判率的目标识别 AI,可能会将一个模糊不清的目标判定为军事设施(因为「宁可错杀,不可放过」在数学上是最优策略)。但这对被误判的平民来说,是不可接受的代价。
技术中立性的幻象在于:它假设技术的价值取向可以由使用者决定。但事实上,技术的设计者和训练者已经在其中嵌入了价值取向。当五角大楼采购 AI 系统时,它采购的不仅是技术能力,还有技术内在的价值逻辑——效率优先、风险最小化、目标最大化。
我的最终观点是:AI 军事化不是「要不要」的问题,而是「如何管」的问题。 AI 已经进入军事领域,并且不会退出。我们需要做的不是阻止技术进步,而是建立有效的治理框架——确保 AI 在军事中的应用符合人类的道德底线和法律约束。
这需要的不是技术的退步,而是治理的进步。
而治理的进步,比技术的进步更加困难。 因为技术可以由工程师推动,而治理需要政治家、伦理学家、法律专家和全社会的共同参与。
这可能是 AI 军事化时代最核心的挑战——不是我们能否让 AI 变得更强大,而是我们能否让自己变得更智慧。
如果你对这个话题感兴趣,建议阅读联合国《特定常规武器公约》(CCW)关于致命性自主武器系统(LAWS)的讨论文件,以及DoD 的 Directive 3000.09(自主武器系统政策)。这些文件代表了当前国际社会在军事 AI 治理方面的最高水平思考。
本文的分析和预判基于公开信息和行业趋势,不代表对任何国家、公司或政策的立场支持或反对。AI 军事化是一个高度复杂的议题,涉及技术、商业、伦理、法律和国际关系等多个维度。建议你从多个角度获取信息,形成独立的判断。