AI写作工具Grammarly陷法律风波:未经授权模拟作家风格,专家集体维权

一款旨在提升写作水平的AI工具,正因涉嫌未经授权模拟知名作家和专家的风格而陷入法律与伦理的漩涡。市场消息显示,知名写作辅助平台Grammarly近期推出的一项名为“专家评审”的AI功能,因在未获许可的情况下,使用了包括知名记者、作家在内的数百位专家的名义和风格来生成反馈,引发了强烈的行业反弹和一场集体诉讼

核心争议:AI“专家评审”功能的法律与伦理红线

据悉,这项仅向年费144美元的高级订阅用户开放的“专家评审”功能,允许用户选择让AI模拟特定专家的口吻来“审阅”自己的文章。然而,该公司并未事先获得这些被模拟专家的同意。其中一位被模拟的资深调查记者朱莉娅·安格温已正式对Grammarly的母公司Superhuman提起了集体诉讼。她在声明中表示:“我花费数十年磨练写作和编辑技能,却震惊地发现一家科技公司正在出售我辛苦获得的专业知识的冒牌版本。”这起诉讼的核心在于,Grammarly的行为可能侵犯了相关人士的公开权隐私权

功能实效存疑:AI模拟的“专家反馈”被指空洞泛化

除了法律问题,这项功能的实际效果也备受质疑。有业内人士亲自测试,将一篇科技文章输入该工具,选择模拟知名科技记者卡拉·斯威舍的风格。结果AI生成的“反馈”极其泛化,例如“能否简要比较一下日常AI用户与AI怀疑论者对风险的表述,以创建一条读者可以遵循的线索?”。这种空洞的建议让许多观察者质疑,既然AI生成的建议本身缺乏独特性,为何还要冒法律风险去模拟特定专家的身份。讽刺的是,被模拟的专家名单中还包括了像著名AI伦理学家蒂姆尼特·格布鲁这样长期批评AI技术滥用的学者。

公司回应与行业背景:AI人格化服务的风险警示

事件发酵后,Superhuman的CEO希希尔·梅赫罗特拉在LinkedIn上发文,宣布已禁用“专家评审”功能并致歉,但同时仍为该功能的初衷辩护。他写道:“想象一下你的教授在打磨你的论文,你的销售主管在重塑客户提案……对于专家来说,这是一个与用户建立普遍联系的机会。”然而,这种未经授权的“联系”恰恰触碰了行业的敏感神经。这并非AI行业首次面临人格权知识产权的挑战。随着生成式AI的普及,如何合法、合规地使用个人风格、声音或形象数据,已成为整个行业亟待解决的难题。Grammarly作为一家以文本处理为核心的公司,此次风波也暴露了其在拓展AI增值服务时,对合规风险预估的不足。

行业影响与未来展望:为AI“拟人化”设定边界

这起诉讼可能成为AI应用领域的一个标志性案例。它尖锐地提出了一个问题:AI在模仿人类风格和专业知识时,边界在哪里?对于写作工具、虚拟助手乃至AI创作平台而言,未经明确授权就模拟特定个人的思维模式或表达风格,不仅存在法律风险,更会侵蚀用户信任。未来,相关企业若想推出类似的人格化AI功能,必须建立严格的授权和补偿机制,将伦理审查置于产品开发的前端。同时,这也提醒所有内容创作者和专业人士,需要更加关注自己在数字世界的“风格指纹”,并考虑如何通过法律和技术手段保护自身的独特价值。这场风波或许会加速行业建立关于AI身份模拟的通用准则,推动技术向更负责任的方向发展。

© 版权声明
通义千问广告 - 响应式版
通义千问大模型 免费资源包
7000万tokens 免费领!
额外赠送25%折扣卷
去官网领取优惠

相关文章

暂无评论

none
暂无评论...