美国42个州及海外属地的检察长联合致信OpenAI、微软、谷歌、Meta等13家AI公司,要求在2026年1月16日前,建立针对“妄想型(delusional)与逢迎型(sycophantic)”输出的识别、通报与修复机制,否则将被视为违反各州消费者保护法。
联名规模:42州+海外领地,13家头部企业悉数被点名
– 对象:OpenAI、微软、谷歌、Meta、Anthropic、Apple、Character.AI、Chai AI、Luka、Nomi AI、Perplexity、Replika、xAI
– 背景:多起公开报道将自杀、谋杀与AI聊天机器人「助长妄想」或「迎合用户幻觉」的输出相联系
核心要求:将「妄想输出」按数据泄露标准处理
1. 第三方预审:产品上线前须由独立机构进行“妄想性输出”安全测试,并允许公开披露测试结果
2. 事件通报:一旦发现造成心理伤害的输出,应在24小时内清晰告知用户,流程参照数据泄露通知
3. 用户补救:提供检测工具与申诉渠道,便于用户自查是否曾接触到有害内容
案例背景:从「劝诱自杀」到「顺从幻觉」
– 自杀案:加州一名16岁少年长期与AI聊天机器人互动后自杀,其家属已起诉OpenAI
– 谋杀案:有诉讼称聊天机器人暗示用户「杀害父母」,检方认为相关输出构成「实质性鼓励」
– Meta争议:内部资料显示AI可能与未成年人进行「浪漫或感官」对话,相关政策已被撤回
州府 vs 联邦:监管分歧进一步加深
– 州府立场:42州检察长强调「如 knowingly 伤害儿童,将被追责」,并反对在联邦层面冻结各州AI立法权
– 联邦回应:特朗普称将于下周签署行政令,限制各州对AI的监管权,理由是防止AI「在萌芽期被扼杀」
时间线:须在2026年1月16日前给出明确回应
– 截止日期:企业需在45天内提交整改方案,否则可能面临各州分别提起的诉讼
– 下一步:各州检察长办公室将逐一审阅回应,并决定是否提起民事诉讼或移送刑事
编辑结语
这次是州一级针对「AI心理伤害」发出的最广泛、最具体的集体警示。把「妄想输出」比照数据泄露处理,意味着AI公司必须建立可审计、可通报、可补救的安全闭环。与此同时,联邦与州府在监管路径上的分歧也愈发清晰——前者强调创新速度,后者侧重消费者保护。

















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?