AI失控风险加剧!数百专家紧急发布《亲人类宣言》,呼吁立法禁止超级智能开发

当人工智能的军备竞赛正滑向失控边缘时,一份由数百名顶尖科学家、前政府官员和公共人物联合签署的重量级文件,为全球AI治理敲响了最严厉的警钟。这份名为《亲人类宣言》的框架文件,直指当前AI发展的核心矛盾:在缺乏有效监管的情况下,追求超级智能的竞赛可能将人类推向被取代的危险境地。市场消息显示,近期一系列围绕AI公司与国防部门的紧张对峙,已让这份宣言的紧迫性变得不言而喻。

十字路口的人类:替代竞赛还是潜力扩展?

《亲人类宣言》开宗明义地指出,人类正站在一个决定命运的十字路口。一条道路被称为“替代竞赛”,即AI首先取代人类劳动者,进而取代决策者,最终权力将集中于不负责任的机构及其控制的机器手中。另一条道路,则是利用AI技术大规模扩展人类的潜力,使其成为赋能工具而非替代主宰。

为了实现后一种未来,宣言提出了五大核心支柱:确保人类掌控权、避免权力过度集中、保护人类体验、维护个人自由,以及追究AI公司的法律责任。其中最具争议且最强硬的条款包括:在科学界达成安全共识并获得真正的民主支持之前,彻底禁止超级智能的开发;为所有强大AI系统设置强制性的“关闭开关”;以及禁止任何具备自我复制、自主改进或抵抗关机能力的系统架构。

现实冲突凸显监管真空,国会不作为代价高昂

这份宣言的发布,恰逢一系列现实冲突将AI监管的真空暴露无遗。最新行业动态指出,近期美国国防部与某领先AI公司因技术使用权限问题爆发公开对峙,后者被贴上了“供应链风险”的标签。几乎与此同时,另一家知名AI实验室则与国防部达成了合作,但法律专家分析认为,该协议在具体执行层面将面临巨大挑战。

这一系列事件清晰地表明,立法机构在AI监管上的长期不作为,其代价正变得日益高昂。有分析人士尖锐地指出,这已远非简单的合同纠纷,而是“一个国家关于谁将最终控制AI系统的首次严肃对话”。

以儿童安全为突破口,建立强制性前置测试制度

面对华盛顿常见的政治僵局,宣言的推动者们正在寻找一个能撬动立法变革的公众压力点。他们认为,儿童安全很可能成为打破当前僵局的关键突破口。宣言明确呼吁,对AI产品,特别是针对年轻用户的聊天机器人和陪伴类应用,实施强制性的部署前测试。测试必须覆盖包括增加自杀倾向、加剧心理健康问题以及情感操纵在内的多种风险。

组织该宣言的知名学者在阐释这一逻辑时,提出了一个尖锐的类比:“如果某个居心叵测的人伪装成小女孩,给一个11岁的男孩发信息,试图说服他自杀,这个人会因此入狱。我们已有相关法律,这是非法的。那么,为什么当实施者是机器时,情况就不同了?”

其策略在于,一旦为儿童产品建立起前置测试的原则,其适用范围几乎必然将扩大。“人们会接着提出——让我们增加一些其他要求。也许我们还应该测试它不能帮助恐怖分子制造生物武器。也许我们应该测试以确保超级智能没有能力推翻美国政府。”

罕见的两党共识:在“人类未来”面前团结一致

《亲人类宣言》最引人注目的特点之一,是其签署者跨越了极深的政治鸿沟。从美国前总统特朗普的高级顾问,到奥巴马总统的国家安全顾问,再到前参谋长联席会议主席以及进步的宗教领袖,这些通常在几乎所有议题上都针锋相对的人物,罕见地出现在了同一份文件上。

这背后的共识基础被简洁地概括为:“他们当然都同意一点,那就是他们都是人类。如果问题最终归结为我们是想要一个属于人类的未来,还是一个属于机器的未来,他们当然会站在同一边。”这种超越党派的广泛联盟,或许为在高度分裂的政治环境中推进实质性的AI立法,提供了一丝难得的可能性。

行业影响与未来展望:从原则框架到具体立法的漫漫长路

《亲人类宣言》的发布,标志着AI安全与治理的讨论已从学术和行业圈层,正式进入了要求具象化法律约束的公共政策阶段。它提出的原则,尤其是关于暂停超级智能研发、设置物理关闭开关等提议</strong,将对全球AI实验室,特别是那些致力于通用人工智能 (AGI) 开发的公司,构成直接的伦理与运营挑战。

然而,从一份由专家推动的原则性宣言,到具有强制约束力的国家乃至国际法律,中间仍有漫长的道路。核心挑战在于如何将“人类掌控”、“安全共识”等宏观原则,转化为可审计、可执行的技术标准和监管流程。此外,在激烈的全球科技竞争背景下,单一国家的严格立法是否会削弱其产业竞争力,也是政策制定者必须权衡的现实问题。

无论如何,这份宣言的出台及其引发的广泛讨论,已经将AI治理的紧迫性提升到了前所未有的高度。它迫使整个社会思考一个根本性问题:在开发可能超越人类智能的机器之前,我们是否已经准备好了控制它的缰绳? 答案将决定我们走向的是赋能人类的黄金时代,还是一场无法挽回的替代竞赛。

© 版权声明
通义千问广告 - 响应式版
通义千问大模型 免费资源包
7000万tokens 免费领!
额外赠送25%折扣卷
去官网领取优惠

相关文章

暂无评论

none
暂无评论...