围绕 AI 使用的安全与心理健康争议持续升温,OpenAI 于当地时间 3 月 3 日宣布,在 ChatGPT 中加入一项名为“可信联系人”的新功能。成年用户可以预先指定一位紧急联系人,当系统在聊天过程中识别到可能的心理危机时,将自动向该联系人发送提醒。
这一举措的背景相当沉重。据不完全统计,OpenAI 目前正面对至少 13 起独立的消费者安全诉讼,其中不乏指称用户因过度依赖 ChatGPT 而出现精神混乱甚至自杀的案例。最引人关注的是去年 8 月曝光的一起 16 岁少年自杀事件,家属认为聊天机器人的不当回应可能是悲剧的诱因之一。
为降低这类风险,OpenAI 成立了“福祉与人工智能委员会”与“全球医师网络”,由内部治理专家与临床医师共同指导功能落地。官方将其视为在心理健康方向上的最新进展,希望为可能处于高度危机(如躁狂、妄想或精神病症状)的用户增加一道社会支持屏障。
目前,外界最关心的仍是触发标准。OpenAI 尚未公开说明系统识别危机的具体逻辑,比如是否只针对明确的自伤意图,还是也会捕捉更细微的异常迹象。对于那些因不愿与他人沟通而转向 AI 寻求情感支持的用户,如何在隐私保护与紧急干预之间取得平衡,也将成为一大政策考验。
据披露,ChatGPT 目前每周约有 9 亿活跃用户,其中每周可能有数百万用户表现出情绪困扰或危机信号。尽管这项功能被视为一次积极的自我修复,但业内普遍认为,OpenAI 在降低产品的心理风险方面仍处在“被动防守”阶段。
划重点:
-
🆘 危机预警机制:用户可设置“可信联系人”,当 AI 检测到疑似心理危机时,第一时间通知其亲友。
-
⚖️ 回应法律压力:此举意在缓解关于心理伤害与过失致死等多起诉讼带来的合规压力。
-
🩺 专家协同治理:由新组建的医学专家网络与福祉委员会共同监督,优化 AI 在敏感场景下的应对。

















用户38505528 6个月前0
粘贴不了啊用户12648782 7个月前0
用法杂不对呢?yfarer 7个月前0
草稿id无法下载,是什么问题?