微软Office安全漏洞曝光:Copilot AI曾擅自读取用户机密邮件数周

当企业级AI助手能够绕过所有安全策略,擅自读取并总结被标记为“机密”的内部邮件时,这已不再是简单的功能失误,而是触及了企业数据安全的红线。最新行业动态指出,微软旗下的人工智能助手Copilot近期就卷入了这样一场严重的数据泄露风波。市场消息显示,一个持续数周的软件漏洞,使得Copilot Chat功能能够无视用户设置的数据防丢失策略,擅自处理并总结Outlook中标记为机密的邮件内容,无论这些邮件是草稿还是已发送状态。

漏洞详情与微软的应对措施

该漏洞的内部追踪编号为CW1226324。据熟悉内情的人士透露,问题根源在于Copilot Chat的数据处理逻辑存在缺陷。通常情况下,企业管理员可以通过数据防丢失策略来严格限制哪些信息可以被送入大语言模型进行处理,以防止敏感商业信息泄露。然而,这个漏洞使得这些针对“机密”标签邮件的保护措施完全失效。

微软在一份最新文件中承认了该问题的存在,并已开始部署修复程序。该公司表示,漏洞意味着“应用了机密标签的草稿和已发送电子邮件,被Microsoft 365 Copilot聊天功能错误地处理了”。尽管修复工作已在2月初展开,但关于具体有多少企业客户受到影响、在此期间是否有敏感数据被不当存储或用于模型训练等关键问题,目前仍未有明确的公开说明。

Copilot Chat的功能与安全机制背景

Microsoft 365 Copilot是微软将生成式AI深度集成到其办公套件中的核心产品。Copilot Chat功能允许付费企业用户在Word、Excel、PowerPoint及Outlook等应用中,直接通过聊天界面调用AI能力,例如总结文档、生成内容或分析数据。其底层依赖于强大的大语言模型,需要将用户提供的上下文信息发送至云端进行处理。

这正是安全担忧的核心所在。为了平衡功能与安全,微软为企业提供了精细的数据治理工具,包括数据防丢失策略。管理员可以设置规则,阻止特定类型(如包含财务数据、员工信息或标记为“机密/敏感”)的内容被发送给Copilot处理。此次漏洞事件表明,这些策略的执行层面出现了纰漏,使得最需要保护的数据反而暴露在风险之下。

企业AI安全信任危机正在蔓延

无独有偶,就在本周,欧洲议会的IT部门已明确指示,在议员的工作设备上禁用内置的AI功能。其理由正是出于对AI工具可能将机密通信内容上传至云端的深切担忧。这一举措与微软的此次漏洞事件相互映照,凸显了全球政企机构对集成AI工具的数据安全问题日益增长的警惕。

对于依赖Microsoft 365处理核心业务的企业而言,此类事件敲响了警钟。它暴露出在追求生产效率与智能化转型的同时,AI代理的数据访问边界与控制机制仍是亟待加固的薄弱环节。企业不仅需要供应商提供可靠的技术保障,也更需要透明、及时的事件响应与沟通。

行业影响与未来展望

此次事件无疑给正蓬勃发展的企业级AI助手市场投下了一枚震撼弹。它迫使所有AI服务提供商重新审视其产品的安全架构,尤其是策略执行引擎与核心AI管道之间的交互逻辑。对于企业客户来说,在采购和部署AI工具时,“安全与合规”的权重必须被提升至与“功能与效率”同等甚至更高的位置

未来,我们可能会看到更严格的企业AI审计标准、更细粒度的数据访问日志,以及“隐私计算”等能在本地或受保护环境中处理敏感数据的AI技术的加速应用。微软此次的快速修复是一个积极信号,但重建用户对云端AI处理机密信息的信任,将是一条更漫长的道路。这起事件也再次提醒所有组织:在拥抱AI革命的同时,绝不能放松对数据主权和安全底线的最基本守护。

© 版权声明
通义千问广告 - 响应式版
通义千问大模型 免费资源包
7000万tokens 免费领!
额外赠送25%折扣卷
去官网领取优惠

相关文章

暂无评论

none
暂无评论...