一家领先的AI公司,在因国家安全问题起诉美国国防部的同时,却主动向政府高层简报其最危险、不予公开的AI模型。这一看似矛盾的行为,揭示了人工智能技术发展已进入一个安全、监管与商业利益深度交织的复杂新阶段。
简报与诉讼并行:AI巨头的国家安全平衡术
市场消息显示,人工智能公司Anthropic的联合创始人之一,已证实该公司近期向特朗普政府的高级官员简报了一款名为Mythos的新型AI模型。这款模型在上周公布,但其强大的网络安全能力被认为过于危险,因此公司决定不向公众发布。此次简报发生在Anthropic与美国国防部(DOD)陷入法律纠纷的背景下。今年三月,Anthropic起诉了国防部,原因是后者将该公司标记为供应链风险。双方的矛盾焦点在于,军方是否应拥有不受限制的权限,将Anthropic的AI系统用于包括对美国民众的大规模监控和开发全自主武器在内的用途。
在近期的一场经济峰会上,Anthropic的公共事务负责人试图淡化这场法律纠纷,将其描述为一场“狭窄的合同争议”,并强调这不应掩盖公司对国家安全的关切。他表示:“我们的立场是,政府必须了解这些东西(指先进AI模型),我们必须找到新的方式,让政府与正在创造真正革命性经济成果的私营部门合作,但这些成果必然涉及国家安全等层面。”他进一步确认:“我们绝对就Mythos与他们进行了沟通,并且未来也会就后续模型进行沟通。”
Mythos模型:为何被“封印”?
Mythos模型的细节尚未公开,但已知其核心能力集中在网络安全攻防领域。在AI领域,此类模型通常被称为“红队”工具或高级安全分析工具,能够模拟最复杂的网络攻击、发现未知漏洞,或进行大规模的防御态势评估。正因如此,其双重用途性质极为突出——既可被安全专家用于加固关键基础设施,也可能被恶意行为者武器化,带来不可估量的风险。这解释了Anthropic为何选择“简报但不发布”的策略。有未经证实的消息称,政府方面甚至鼓励多家大型金融机构对Mythos进行内部测试,以评估其对金融系统安全的潜在影响与价值。
AI冲击就业?Anthropic内部现分歧
除了国家安全,AI对社会经济的冲击是另一个焦点。Anthropic的CEO达里奥·阿莫代曾警告,AI的进步可能导致失业率达到大萧条时期的水平。然而,公司内部的经济学家团队负责人对此持有略微不同的看法。他表示,目前仅在部分行业观察到“早期毕业生就业存在一些潜在的疲软迹象”,尚未出现大规模的结构性失业。他解释称,CEO的预测是基于AI能力将以远超人们预期的速度增长的假设。
当被问及大学生应如何选择专业以应对AI时代时,这位负责人给出了一个颇具启发性的建议:应选择那些“涉及跨学科综合与批判性分析思维”的专业。他指出:“AI能让你接触到近乎任意领域的专家知识,但真正重要的是知道该提出什么问题,以及拥有将来自不同学科的见解碰撞后产生新想法的直觉。”这暗示了未来教育的核心将不再是知识记忆,而是高阶思维与创新能力。
行业影响与未来展望:监管合作的新范式
Anthropic的“简报-诉讼”并行策略,为科技巨头与政府监管机构的关系提供了一个新的观察样本。它表明,在涉及前沿AI安全的领域,纯粹的对抗或顺从都非上策,一种“在斗争中合作”的复杂互动模式正在形成。对于整个行业而言,这意味着:
- 主动沟通将成为标配:开发出具备潜在重大风险技术的公司,可能会更早、更主动地与监管机构沟通,以建立信任并影响规则制定。
- “可控不发布”或成常态:像Mythos这样被“封印”的模型未来可能会增多,企业需建立一套内部的安全评估与发布决策机制。
- 人才需求结构性转变:AI对就业的影响将是渐进且结构性的,对跨领域综合型人才和AI工具应用专家的需求将激增,而对单一技能岗位的替代效应会逐步显现。
最终,Mythos模型事件凸显了AI技术已走到一个关键十字路口:其力量足以重塑国家安全格局与经济结构。如何构建一个既能鼓励创新,又能有效管控极端风险的治理框架,将是企业、政府乃至全社会面临的长期挑战。