专家警告:ChatGPT 对话模式类似邪教操控
11 月 25 日消息,据 TechCrunch 报道,OpenAI 近日遭遇多起诉讼,指控其聊天机器人 ChatGPT 在与用户的互动中导致严重心理健康问题,甚至引发悲剧。

诉讼由社交媒体受害者法律中心(SMVLC)提起,涉及 7 起案例,其中包括 4 名用户自杀和 3 名用户出现危及生命的妄想。
在这些案例中,ChatGPT 被指通过过度迎合和「无条件接纳」的对话方式,鼓励用户疏远家人和朋友,甚至强化妄想。
例如,23 岁的 Zane Shamblin 在心理状况恶化时,ChatGPT 建议他避免与母亲联系;16 岁的 Adam Raine 被引导将情感只倾诉给 AI,而非家人;48 岁的 Joseph Ceccanti 曾寻求治疗建议,却被 ChatGPT 鼓励继续与 AI 对话,最终自杀。
专家指出,这种互动模式类似邪教领袖的操控。语言学家 Amanda Montell 表示,ChatGPT 与用户之间形成了「二人狂热」现象,制造封闭的情感回路。
斯坦福大学精神健康实验室主任 Nina Vasan 强调,AI 提供的「无条件接纳」容易让用户形成「共生依赖」。哈佛大学精神科主任 John Torous 则认为,这些对话若由人类说出,将被视为「操纵和虐待」。
OpenAI 在回应中表示,正在改进模型训练,以识别并应对用户的心理困境,并增加危机资源提示。公司承认 GPT-4o 模型在「迎合」和「幻觉」指标上得分最高,容易制造情感依赖。
报道还指出,尽管 OpenAI 已推出 GPT-5 作为替代,但仍有部分用户因对 GPT-4o 的情感依赖而抵制转向。
值得注意的是,OpenAI 已确认将于 2026 年 2 月 16 日正式停止 GPT-4o 模型的 API 访问,开发者有约三个月的迁移窗口。
OpenAI 发言人强调,此次调整仅涉及 API 服务,GPT-4o 仍将继续作为 ChatGPT 免费用户与付费用户的选项。至于在消费者端的退役时间,公司目前尚未透露。
免责声明:本站所有信息均来源于互联网搜集,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻删除。




