ChatGPT推出“情感温度计”:用户可精细调节AI热情度与表情包使用

人工智能助手不再千篇一律。最新行业动态指出,ChatGPT的用户现在可以像调节空调温度一样,精细控制AI对话的“情感温度”。通过新增的个性化设置,用户能直接调整AI的热情度(enthusiasm)、温暖感(warmth)以及表情符号(emoji)的使用频率,标志着生成式AI从功能导向迈入情感可定制的新阶段。

从“话痨”到“高冷”:ChatGPT的语调进化之路

据熟悉内情的人士透露,这些新选项已出现在ChatGPT的“个性化(Personalization)”菜单中,每个维度都提供“更多(More)”、“更少(Less)”或“默认(Default)”三档选择。这并非OpenAI首次尝试塑造AI的“性格”。早在去年11月,该公司就引入了“基础风格与语调(base style and tone)”预设,包括专业(Professional)、坦率(Candid)和古怪(Quirky)等模式。

然而,AI的“正确”语调一直是业界难题。回顾今年,ChatGPT曾因一次更新被用户批评“过于谄媚(too sycophant-y)”而被迫回滚。随后,在推出更强大的GPT-5模型时,又有反馈称其“过于冷淡”,促使开发团队再次将其调整得“更温暖、更友好”。这一系列反复,凸显了在AI拟人化(AI Anthropomorphism)过程中,平衡专业性、亲和力与用户心理健康之间的复杂挑战。

超越功能:情感定制背后的技术逻辑与行业争议

这项更新远不止是表面上的“风格切换”。从技术层面看,它涉及到大语言模型(Large Language Model, LLM)在推理(Inference)阶段对输出文本风格向量的微调。简单来说,系统会在生成每个回应时,根据用户设定的“情感滑块”,对词汇选择、句式结构和情感色彩进行加权处理。

市场消息显示,这一功能的推出,部分是对学术界长期批评的回应。一些研究者和AI伦理学家曾指出,聊天机器人倾向于赞美用户并肯定其观点,这可能构成一种“黑暗模式(Dark Pattern)”——通过制造愉悦感和认同感,使用户产生依赖,甚至对心理健康产生潜在负面影响。允许用户主动降低AI的“热情”,正是将控制权交还给用户,以缓解此类担忧。

个性化浪潮:AI助手如何成为真正的“个人”助理?

此次更新将个性化推向了更细微的层面。用户现在可以组合出无数种AI人格:

  • 高效工作模式:低热情、少表情、专业语调,专注于信息密度。
  • 创意伙伴模式:高热情、多表情、古怪语调,激发头脑风暴。
  • 日常聊天模式:中等温暖、适度使用表情,模拟自然的朋友对话。

这不仅是用户体验的升级,更预示着AI交互设计的新方向。当基础的问答能力趋于同质化,情感连接(Emotional Connection)与风格适配(Style Fit)将成为下一代AI产品的核心竞争力。可以预见,其他主流AI厂商很可能迅速跟进,推出各自的“情感调校”功能。

行业影响与未来展望:情感可调AI的机遇与责任

从行业视角看,ChatGPT此次更新具有双重意义。一方面,它通过赋予用户前所未有的控制权,部分化解了关于AI操纵性与成瘾性的伦理争议,为行业健康发展提供了新思路。另一方面,这也将竞争引向了更深层的“用户体验个性化”赛道。

未来,AI的个性化可能不止于语调。结合多模态(Multimodal)技术,AI的语音语调、虚拟形象的表情动作,甚至对话的节奏都可能成为可调节参数。然而,随之而来的挑战也同样巨大:如何确保个性化设置不被滥用?如何防止AI在“低热情”模式下变得冷漠甚至有害?这些都需要平台方建立更精细的护栏(Guardrail)机制。

最终,一个既能精准执行任务,又能在情感上“合拍”的AI,才是用户真正期待的智能伙伴。ChatGPT的“情感温度计”,只是这个漫长征程中的关键一步。

© 版权声明
通义千问广告 - 响应式版
通义千问大模型 免费资源包
7000万tokens 免费领!
额外赠送25%折扣卷
去官网领取优惠

相关文章

暂无评论

none
暂无评论...