市场消息显示,谷歌已正式向美国国防部开放其人工智能技术,允许用于机密网络,这实际上等同于授权了所有合法用途。此举紧随Anthropic的公开抵制之后,标志着科技巨头在国防AI领域的竞争格局正在发生剧烈变化。
事件背景:Anthropic的拒绝与五角大楼的反制
据熟悉内情的人士透露,此前Anthropic拒绝向五角大楼提供与谷歌相同的合作条款。五角大楼希望获得AI的无限制使用权,而Anthropic则坚持设置护栏,禁止其AI技术用于国内大规模监控和自主武器系统。由于Anthropic拒绝了这些使用场景,五角大楼将其标记为“供应链风险”——这一标签通常只用于外国敌对势力。目前,Anthropic与五角大楼已陷入诉讼纠纷,上个月一名法官批准了Anthropic的禁令,阻止该标签生效,直至案件审理结束。
谷歌的入场:从Anthropic的损失中获利
谷歌成为第三家试图将Anthropic的损失转化为自身收益的AI公司。此前,OpenAI和xAI已迅速与五角大楼签署了协议。谷歌的协议中包含一些措辞,表明其不打算让AI用于国内大规模监控或自主武器,这与OpenAI的合同语言类似。但据行业消息,这些条款是否具有法律约束力或可执行性仍不明确。
内部争议:950名员工联名反对
值得注意的是,谷歌的这项决定是在其950名员工签署公开信、要求其效仿Anthropic的情况下做出的。员工们呼吁谷歌在没有类似护栏的情况下,不要向国防部出售AI技术。谷歌未对此事发表评论。
技术背景与行业分析
人工智能在国防领域的应用一直是敏感话题。自主武器系统(Autonomous Weapons)和大规模监控(Mass Surveillance)被认为是AI伦理的红线。此次事件凸显了AI公司在商业利益与道德责任之间的两难。谷歌、OpenAI和xAI的积极入场,可能意味着它们更看重国防合同带来的巨大收入和技术验证机会,而非潜在的社会争议。
从行业影响来看,这一系列事件可能加速美国国防部与科技巨头的深度绑定,同时也可能促使更多AI初创公司在“接单”与“坚守原则”之间做出艰难选择。未来,类似Anthropic的“供应链风险”标签或将成为一种新的施压工具,迫使AI公司服从国防需求。