五角大楼与Anthropic决裂后加速自研AI,大模型军备竞赛进入新阶段

一份价值2亿美元的国防合同破裂,正将美国军方的人工智能战略推向一个关键转折点。最新行业动态指出,五角大楼已正式启动内部大语言模型(LLM)的开发工程,旨在彻底替代此前合作的AI公司Anthropic的技术。这一举措不仅标志着一场重大商业合作的终结,更揭示了在国家安全与AI伦理的十字路口,政府正不惜代价将核心技术能力收回己有。

合同破裂核心:AI军事化应用的伦理红线

市场消息显示,此次合作告吹的导火索,在于双方对AI技术军事化应用范围的根本性分歧。Anthropic方面坚持在合同中加入限制性条款,明确禁止其AI被用于对美国民众的大规模监控,或部署在无需人类干预即可开火的自主武器系统上。然而,五角大楼并未在此核心伦理问题上让步。

“国防部正在积极将多种大语言模型引入合适的政府自有环境,”一位熟悉内情的高级官员在近期披露,“相关工程工作已经开始,我们预计很快就能投入作战使用。”

这一僵局直接导致了持续数周的谈判最终失败。更值得注意的是,在Anthropic退出后,其竞争对手迅速填补了空缺。OpenAI已与国防部达成协议,而埃隆·马斯克旗下的xAI也获得了在机密系统中使用其Grok模型的许可。这一系列动态表明,国防AI供应链正在经历快速重组

供应链风险”标签与自研之路的必然性

将矛盾推向高潮的,是国防部长皮特·赫格塞斯将Anthropic正式指定为“供应链风险”。这一标签通常用于指代外国对手,意味着任何与五角大楼合作的公司,都将被禁止与Anthropic开展业务。尽管Anthropic已就此决定诉诸法庭,但此举已彻底关上了双方未来合作的大门。

从技术角度看,五角大楼加速自研大模型有其深层逻辑。商业AI模型(如Anthropic的Claude、OpenAI的GPT系列)通常在公开数据上训练,其内部工作机制(黑箱问题)和潜在的安全漏洞,在高度敏感的军事指挥与控制(C2)场景下可能构成不可接受的风险。开发政府专属的、从头开始训练的军事大模型(Military LLM),能够更好地集成机密数据、遵循严格的交战规则(Rules of Engagement),并满足在断网或受干扰环境下的部署需求。

行业影响:国防AI生态从采购转向“可控构建”

这一事件远不止是一则商业新闻,它预示着全球国防AI发展模式的一个根本性转变。

  • 模式转变:从依赖采购商业AI服务,转向强调“主权AI”和“可控构建”。各国军方将更加重视构建内部AI研发能力,以确保技术自主性和作战弹性。
  • 伦理与法规博弈加剧:Anthropic的立场反映了AI行业内部对“负责任AI”原则的坚持。未来,顶尖AI公司与政府机构的合作,将不可避免地围绕“杀伤链”中的人类控制权、隐私保护等议题展开更激烈的合同谈判。
  • 新市场格局形成:能够提供高度定制化、符合严格军事安全标准(如FedRAMP High、IL5/6级别)的云和AI基础设施的科技公司,或将获得新的市场机遇。同时,专注于AI安全、可解释性(XAI)和强化学习用于模拟训练的初创企业,也可能迎来增长窗口。

最终,五角大楼的自研行动揭示了一个清晰趋势:人工智能已成为与战机、航母同等级别的核心战略资产,其控制权必须牢牢掌握在自己手中。这场始于一份合同纠纷的变动,正在重塑未来国防科技的竞争规则与产业生态。

© 版权声明
通义千问广告 - 响应式版
通义千问大模型 免费资源包
7000万tokens 免费领!
额外赠送25%折扣卷
去官网领取优惠

相关文章

暂无评论

none
暂无评论...