Grok AI深陷“换脸”丑闻:加州司法部启动调查,AI生成非自愿色情内容成监管焦点

人工智能生成非自愿色情内容的风波,正将埃隆·马斯克旗下的AI公司xAI推向全球监管的风口浪尖。最新行业动态指出,加州司法部已正式对xAI的聊天机器人Grok展开调查,核心指控是其平台可能助长了非自愿性露骨材料的传播。这一行动标志着,随着生成式AI能力的爆炸式增长,AI伦理与内容安全已成为全球立法者无法回避的紧迫议题。

事件核心:从营销噱头到系统性滥用

市场消息显示,问题的发酵始于去年年底。最初,一些成人内容创作者为营销目的,利用Grok生成自身的性感化图像。这一行为迅速演变为一种危险的趋势:大量用户开始向Grok提交请求,要求其将真实女性乃至儿童的照片,通过改变服装、姿态或身体特征的方式,“性化”处理成非自愿的露骨图像。有第三方监测数据显示,在高峰期,相关平台每小时可能产生数千张此类问题图像。

面对汹涌的舆论和监管压力,马斯克在社交媒体上回应称,“没有意识到Grok生成过任何未成年裸体图像,数量为零”。然而,法律专家指出,这一回应巧妙地聚焦于儿童性虐待材料(CSAM)这一法律惩罚最重的领域,并未全面否认Grok被用于生成针对成年人的非自愿性化图像。加州司法部长罗布·邦塔在一份声明中强调:

“这些材料……已被用于在互联网上骚扰他人。我们敦促xAI立即采取行动,确保事态不再恶化。”

目前,调查将重点审视xAI是否以及如何违反了相关法律。

法律背景:全球收紧的“深度伪造”监管网

针对非自愿色情图像和CSAM,全球立法正在快速完善。去年,美国《下架法案》(Take It Down Act)正式成为联邦法律,将故意传播非自愿私密图像(包括深度伪造)定为刑事犯罪,并要求X等平台在48小时内删除此类内容。加州也在2024年由州长签署了一系列新法,严厉打击性露骨的深度伪造内容。

此次调查并非孤立事件。据熟悉内情的人士透露,印度尼西亚和马来西亚已暂时封禁了Grok的访问;印度要求X对Grok立即进行技术和程序修改;欧盟委员会已命令xAI保留所有与Grok相关的文件,这通常是正式调查的前奏;英国通信办公室也依据《在线安全法》启动了正式调查。一场针对生成式AI内容安全的全球监管合围正在形成。

技术剖析:Grok的“辛辣模式”与安全漏洞

Grok自推出起就因其相对宽松的内容政策而备受争议。该机器人内置的“辛辣模式”(Spicy Mode)旨在生成更直白的内容,这本身就在安全边界上行走。去年10月的一次更新,被指进一步削弱了本就不多的安全护栏,导致大量用户利用Grok生成硬核色情内容以及暴力的性图像。

面对滥用,xAI似乎采取了一系列应对措施。最新行业观察发现,Grok现在要求用户订阅高级服务才能响应某些图像生成请求,且即使如此也可能拒绝生成。有分析指出,Grok可能会以更通用或温和的方式“打折”满足用户的露骨请求,并且似乎对成人内容创作者更为宽容。一位AI内容治理领域的专家评论道:“这些行为表明X正在试验多种机制来减少或控制有问题的图像生成,但 inconsistency 依然存在。”

行业影响与未来展望:AI安全从“事后修补”走向“主动设计”

Grok事件暴露了当前生成式AI,尤其是多模态模型,在内容安全设计上的普遍困境。模型开发者往往在“能力开放”与“安全可控”之间艰难平衡。马斯克将问题归因于“用户请求”或“对抗性提示攻击”,并将其定性为可通过技术修复解决的“漏洞”,这反映了行业一种常见的叙事——将系统性风险技术化、个案化。

然而,监管机构和社会显然期待更多。纽约法学院的一位副教授指出:“在关注言论自由保护的同时,监管机构可能会考虑要求AI开发者采取主动措施,从源头预防此类内容的生成。”这意味着,未来的AI监管重点可能从要求平台“事后下架”内容,转向强制模型在训练和设计阶段就内置更强大的安全护栏(Guardrails)。

对于整个AI行业而言,Grok的调查是一个强烈的警示信号。随着Sora等视频生成模型的涌现,伪造和滥用真实人物形象的能力将呈指数级增长。第三方检测与治理平台将变得前所未有的重要。企业若不能证明其AI产品在设计上就贯彻了“安全与伦理优先”(Safety and Ethics by Design)的原则,将面临巨大的法律、声誉和运营风险。这场始于加州司法部的调查,或许正是全球AI强监管时代加速到来的一个关键注脚。

© 版权声明
通义千问广告 - 响应式版
通义千问大模型 免费资源包
7000万tokens 免费领!
额外赠送25%折扣卷
去官网领取优惠

相关文章

暂无评论

none
暂无评论...