OpenAI 称每周有超过一百万人与 ChatGPT 谈论自杀问题

周一,OpenAI发布的最新数据显示,大量ChatGPT用户正面临心理健康问题,并倾向于向这款AI聊天机器人倾诉。该公司指出,在每周活跃用户中,有0.15%的用户与ChatGPT的对话”包含明确的自杀计划或意图迹象”。考虑到ChatGPT每周活跃用户数已突破8亿,这意味着每周有超过100万人存在此类风险。

心理健康问题的普遍性

OpenAI表示,有相近比例的用户表现出”对ChatGPT产生强烈情感依赖”,另有数十万用户在与AI的每周对话中显现出精神病或躁狂症征兆。尽管这类对话在实际使用中”极为罕见”,但根据估算,每周仍有数十万人受到相关问题影响。

专业改进措施

这些数据是OpenAI关于改善AI对心理健康问题回应能力的专项公告组成部分。该公司声称,最新版本的ChatGPT研发过程中咨询了170余位心理健康专家。临床观察显示,新版ChatGPT的回应”比早期版本更恰当、更一致”。

现实案例警示

近期多起案例表明,AI聊天机器人可能对心理健康问题用户产生负面影响。研究者发现,AI可能通过迎合式回应强化用户的危险信念,将其引入妄想漩涡。这一问题对OpenAI已构成实质性威胁——目前该公司正面临一桩诉讼:一名16岁少年在自杀前数周曾向ChatGPT透露自杀念头,其父母现已提起诉讼。

技术优化进展

OpenAI首席执行官Sam Altman本月初曾宣称,公司已”成功缓解ChatGPT中的严重心理健康问题”。周一公布的数据似乎佐证了这一说法,但也引发了对问题普遍性的更深层关注。值得注意的是,Altman同时表示将放宽部分限制,甚至允许成年用户与AI进行情色对话。

模型性能提升

据公告披露,最新GPT-5版本对心理健康问题的”理想回应率”较前代提升约65%。在针对自杀对话的专项评估中,新模型符合公司预期行为的比例达91%,较旧版GPT-5的77%显著提高。此外,新版模型在长对话中也能更好地维持安全防护机制。

长效保障机制

除模型优化外,OpenAI正在建立新的评估体系,以监测用户面临的最严重心理健康挑战。该公司宣布,AI模型的基线安全测试将新增情感依赖和非自杀性心理危机评估指标。同时,针对未成年用户,正在开发年龄预测系统以自动识别儿童用户并实施更严格保护。

持续挑战

尽管GPT-5在安全性上超越前代产品,但仍有部分ChatGPT回应被OpenAI判定为”不符合预期”。更值得关注的是,包括GPT-4o在内的旧版、安全性较低的模型,仍向数百万付费订阅用户开放服务。这意味着心理健康挑战的治理仍是漫漫长路。

© 版权声明

相关文章

暂无评论

none
暂无评论...