一场关于谁有权控制最先进人工智能(AI)技术使用权的激烈对峙,正在硅谷与华盛顿之间上演。市场消息显示,一家领先的AI公司因拒绝其模型被用于大规模监控或完全自主武器,正面临来自美国国防部的巨大压力,甚至可能被列入供应链风险名单。这场冲突的核心,已超越商业合同,触及了AI时代最根本的权力归属问题:是创造技术的公司,还是意图部署技术的政府,最终掌握着决定AI生死的开关?
技术伦理的“红线”:为何AI公司敢于说不?
与传统的国防承包商不同,新一代AI公司从创立之初就将AI安全和负责任部署置于核心。据熟悉内情的人士透露,这家公司划定的“红线”非常明确:禁止其AI模型用于对美国公民的大规模监控,以及在没有人类最终决策环(Human-in-the-loop)的情况下,进行自主目标识别与打击。
这并非杞人忧天。当前,美国国防部对于完全自主武器系统(Lethal Autonomous Weapons Systems, LAWS)并未有法律层面的全面禁令。一份2023年的国防部指令显示,只要通过高级别审查并符合特定标准,AI系统可以在无人干预的情况下选择和攻击目标。军事技术的天然保密性,使得外界几乎无法在系统投入实战前知晓其进展。一旦将尚不成熟的AI置于生死决策的位置,后果可能是灾难性的——一个高速、自信但可能犯错的机器,其风险远超传统武器。
此外,AI技术能将“合法监控”的能力提升到令人不安的程度。通过自动化的大规模模式识别、跨数据集的实体解析和预测性风险评估,AI可以以前所未有的规模和精度分析公民行为。该公司认为,其模型目前的能力尚不足以安全地支持此类高风险的军事应用。
五角大楼的诉求:技术主权与“合法使用”之争
面对AI公司的限制,国防部的立场同样强硬。最新行业动态指出,国防部高层认为,其使用AI技术不应受到供应商内部政策的束缚,只要用途“合法”,就应被允许。一位国防部发言人公开表示,这是一个“简单、常识性的要求”,旨在防止因供应商的限制而危及关键军事行动,或将作战人员置于风险之中。
“我们不会让任何公司来决定我们如何做出作战决策。”该发言人在一份声明中强调。
国防部给出了最后通牒,威胁称若公司不妥协,将采取两种措施:
- 将其列为“供应链风险”,这意味着该公司将被排除在政府合作名单之外;
- 或动用《国防生产法》(Defense Production Act),强制要求公司根据军方需求定制模型。
这场争论的背后,也隐约可见文化理念的冲突。有分析指出,国防部高层曾公开批评所谓“觉醒AI”(Woke AI),并强调要打造“为战争准备的武器系统,而非常春藤联盟教员休息室的聊天机器人”。
僵局与未来:没有赢家的博弈与国家安全的权衡
这场对峙对双方而言都代价高昂。对于AI公司,被贴上“供应链风险”标签可能意味着与政府相关业务的终结,对其商业前景是沉重打击。然而,对于国防部而言,失去这家在大语言模型领域处于领先地位的合作者,同样可能构成国家安全风险。
行业分析师指出,国防部若转向其他AI供应商,可能需要等待6至12个月,让其他公司的模型在特定能力上迎头赶上。这将留下一个近一年的“能力空窗期”,在此期间,军方可能不得不使用次优的技术方案。目前,其他主要AI公司态度不一:有公司正积极准备获得安全许可以替代其位置;而另一家头部公司则可能坚持类似的伦理红线。
这场冲突的结局,将为一个关键问题定下基调:在AI能力飞速进化的时代,我们能否建立有效的护栏,确保这项变革性技术不被滥用?这不仅关乎一家公司与一个政府部门的合同,更关乎未来十年全球AI治理的走向,以及技术在军事化应用中的人性底线。