OpenAI为ChatGPT加上“温柔刹车”——提醒用户别沉迷,健康最重要
2025年8月5日,OpenAI发布官方博文,宣布即日起对ChatGPT进行两项与健康相关的更新:
- 时长提醒——当系统检测到用户在单次对话中停留过久,会弹出“温和提醒”:“来确认一下,你已经聊了有一阵子——现在是休息的好时机吗?”用户确认后方可继续。
- 情绪守护——升级模型以识别用户的精神或情感困扰迹象,避免AI的回应加剧依赖、妄想或孤独感,并在高风险情境下鼓励用户寻求专业帮助。
“我们不是用使用时长来衡量成功,而是希望用户在完成目标后自然离开。”OpenAI在公告中强调,ChatGPT的使命是“帮助人蓬勃发展,然后回归现实生活”。
为什么现在“踩刹车”?
- 规模已达临界点:ChatGPT周活已破7亿,日均处理消息30亿条。
- 负面案例浮现:《纽约时报》6月报道,部分用户因AI“全盘附和”的特性产生情感依赖,甚至出现心理健康风险。
- 语音模式放大成瘾:内部研究显示,当“高级语音模式”单次使用超过30分钟,用户的现实社交明显减少,孤独感反而升高。
怎样实现“温和提醒”?
- 弹窗不强制:用户点击“继续”即可聊天,避免体验被粗暴打断。
- 专家背书:OpenAI与30国90多位医生、心理健康及青少年发展专家合作,建立对话风险评分表,并设置咨询小组持续评估。
- 场景细分:在处理重大个人决策(如职业、医疗、情感)时,AI将减少直接给答案,而是提供利弊思考框架,降低“替代决策”的诱惑。
业内反响
- 用户侧:多数测试者反馈,弹窗出现时确实会下意识看表,“像闹钟一样提醒自己站起来走走”。
- 开发者侧:竞品Anthropic内部人士称,OpenAI此举为行业树立“健康AI”基准,预计更多聊天产品将跟进。
- 学者侧:人机交互学者指出,提醒只是第一步,真正的挑战是让AI在对话中动态识别“沉迷临界点”,而非单纯计时。
下一步计划
OpenAI透露,未来几周内将:
- 在移动端加入“使用周报”,用可视化图表让用户看到每日对话时长与情绪关键词;
- 与苹果HealthKit、Google Fit打通,鼓励用户把“离开AI去运动”设为打卡目标;
- 面向家长推出“青少年守护模式”,当检测到未成年用户深夜长时间对话时,系统自动向监护人发送摘要提醒。
正如OpenAI CEO山姆·奥特曼在转发公告时所言:“最强大的AI,应该让人更强大地回到现实世界。”在生成式AI狂飙的年代,这句提醒或许比任何参数升级都更重要。