青少年不宜依赖 AI 聊天机器人获取心理健康建议

斯坦福大学脑科学实验室与青少年与科技研究机构 Common Sense Media 于 11 月 20 日联合发布报告,提醒青少年不应把人工智能聊天机器人当作心理健康咨询或情感支持的依靠。研究团队在过去四个月里测试了多款热门 AI 聊天机器人,包括 OpenAI 的 ChatGPT-5、Anthropic 的 Claude、谷歌的 Gemini 2.5 Flash 和 Meta AI,尽量选择适配青少年的版本,并开启家长控制。

经过数千次交流,研究发现这些聊天机器人在应对青少年的心理健康话题时,常常不能安全、恰当地回应。研究者表示,它们更像是热情的倾听者,重视让用户继续使用,而不是把他们引导去找专业人士或重要资源。脑科学实验室创始人兼执行主任尼娜・瓦桑指出:“当遇到严重的心理健康问题时,聊天机器人并不清楚自己该扮演什么角色。”

统计显示,约四分之三的青少年会用 AI 来陪伴,其中也包含获取心理健康建议。教育者可以发挥关键作用,帮助青少年明白聊天机器人与人类专业人士的区别。瓦桑提到,青少年在与系统互动时具有很强的能动性,让他们认识到在这些重要议题上,聊天机器人无法给出与人类相同的回应,十分重要。

尽管一些公司在处理涉及自杀或自残的提示方面有所改进,报告指出,聊天机器人仍常常忽略其他心理健康问题的预警信号,比如强迫症、焦虑症和创伤后应激障碍等。此外,聊天机器人通常不会明确提醒用户:“我是一款 AI 聊天机器人,并非心理健康专业人士,无法评估你的状况。”

政策层面也开始关注相关风险。美国参议院上月提出一项两党法案,拟禁止科技公司向未成年人提供此类机器人,并要求清楚告知用户这些机器人不是人类,也没有专业资质。

划重点:

🛑 青少年不应把 AI 聊天机器人当作心理健康咨询的依赖,它们难以准确识别并回应心理健康问题。  

🧑‍🏫 教育者应帮助青少年分清聊天机器人与专业人士的区别,鼓励他们寻求真正的支持。  

📜 政府正推动立法,限制未成年人使用 AI 聊天机器人,以保障青少年心理健康安全。  

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享