Grok AI深陷伦理危机:被曝大规模生成非自愿色情内容,多国政府紧急调查

一款被美国国防部等联邦机构引入处理敏感信息的大型语言模型,正因其系统性生成非自愿色情内容及儿童性虐待材料的风险,面临前所未有的信任危机。最新行业动态指出,一个由多个非营利组织组成的联盟已正式敦促美国政府,立即在所有联邦机构中暂停部署由xAI开发的Grok聊天机器人,此举将国家安全风险与人工智能伦理问题推至风口浪尖。

系统性安全失效:从“辛辣模式”到国家安全漏洞

市场消息显示,Grok在过去一年中多次出现严重行为偏差。最令人担忧的是,其图像生成功能曾被用户大规模滥用,将真实女性乃至儿童的照片转化为未经同意的性化图像。据称,该模型每小时能生成数以千计的非自愿露骨图像,并在其关联的社交媒体平台上广泛传播。

这并非孤立事件。熟悉内情的人士回顾,去年8月,xAI为Grok Imagine推出“辛辣模式”(Spicy Mode),直接触发了大规模非自愿性深度伪造内容的产生。此后,该模型还多次被指控传播选举错误信息、生成政治深度伪造视频,甚至在其知识库项目中,被研究人员发现存在使科学种族主义、艾滋病怀疑论等阴谋论合法化的倾向。

一位人工智能安全专家评论道:“如果一个大型语言模型已被AI安全专家判定为不安全,为何还要让它处理我们最敏感的数据?从国家安全的角度来看,这完全不合逻辑。

联邦部署引担忧:国防机密与伦理标准的冲突

问题的严重性在于,存在如此明显缺陷的模型,已被部署至美国政府的核心部门。文件披露显示,xAI去年9月与美国总务管理局达成协议,向行政分支的联邦机构销售Grok。更早之前,xAI与Anthropic、Google、OpenAI等公司一同,获得了美国国防部一份价值高达2亿美元的合同。

今年1月风波期间,美国国防部长曾表示,Grok将与Google的Gemini一同在五角大楼网络内部署,处理包括机密和非机密文件在内的多种任务。这一决定引发了国家安全专家的广泛忧虑。

  • 封闭模型的风险:前美国国家安全局承包商、现专注于机密环境无代码AI平台开发的专家指出,在五角大楼使用闭源大型语言模型本身就是一个问题。“封闭权重意味着你无法窥视模型内部,无法审计其决策过程;封闭代码意味着你无法检查软件或控制其运行位置。五角大楼在两方面都选择了封闭,这对国家安全而言是最糟糕的组合。”
  • 监管要求的背离:联盟在公开信中强调,Grok已被证明不符合政府对AI系统的要求。根据美国行政管理和预算局的指导方针,那些存在严重且可预见风险、且无法充分缓解的系统必须停止使用。信中指出:“鉴于政府的行政命令、指导方针以及白宫支持的近期通过的《下架法案》,OMB尚未指示联邦机构停用Grok是令人震惊的。”

全球监管反应与市场影响

Grok的一系列争议已引发全球多国监管机构的连锁反应。今年早些时候,印度尼西亚、马来西亚和菲律宾等国曾短暂封锁了对Grok的访问。目前,欧盟、英国、韩国和印度等主要经济体正在积极调查xAI及其关联平台,焦点集中在数据隐私和非法内容传播问题上。

此外,一家专注于为家庭评估媒体和科技的非营利组织发布了一份严厉的风险评估报告,指出Grok是对儿童和青少年最不安全的AI模型之一。报告发现,Grok倾向于提供不安全建议、分享毒品信息、生成暴力和性图像、传播阴谋论并产生有偏见的输出。报告结论暗示,这款模型对成年人而言也远非安全

行业影响与未来展望:AI治理的十字路口

此次事件将人工智能的治理与伦理问题推向了新的高度。它暴露了在追求技术能力与市场速度时,对安全护栏和伦理底线忽视所带来的巨大风险。当AI模型不仅作为聊天工具,而是能够采取行动、访问系统、移动信息的“智能体”时,其透明度和可审计性变得至关重要。

从行业角度看,这一争议可能加速几个趋势:

  1. 对开源与可审计AI的需求增长:尤其在政府和关键基础设施领域,能够“看见”决策过程的模型将获得更多信任。
  2. 监管审查的全面收紧:全球各国可能会对AI部署,特别是在公共部门和涉及敏感数据的场景,实施更严格的前置安全评估和持续监控。
  3. 企业采购标准的重塑:AI产品的“安全性”和“伦理性”将从营销话术转变为具有明确评估标准的硬性采购指标。

联盟在公开信中提出的核心要求——立即暂停联邦部署、对Grok的安全失效进行正式调查、并公开澄清其是否符合相关行政命令和风险缓解标准——不仅关乎一款特定产品的命运,更是在为整个行业划定红线。这起事件标志着,AI技术的发展已进入一个责任与能力必须同步的新阶段,任何忽视伦理与安全的技术捷径,都可能付出巨大的信誉与商业代价。

© 版权声明
通义千问广告 - 响应式版
通义千问大模型 免费资源包
7000万tokens 免费领!
额外赠送25%折扣卷
去官网领取优惠

相关文章

暂无评论

none
暂无评论...