伴随全球对青少年在线安全的关注持续升温,两大人工智能公司OpenAI和Anthropic于本周四宣布,将采取更主动的举措来识别并保护未成年用户。两家企业计划借助 AI 模型推测用户年龄,并针对青少年群体调整产品指引。
OpenAI:安全优先,升级青少年互动规范
OpenAI在其最新发布的“模型规范”中补充了四项面向18岁以下用户的关键原则。公司明确表示,未来 ChatGPT 在与13至17岁青少年交流时,将把“青少年安全”置于最高优先级,即便这可能与其他目标(如最大限度的思想自由)产生权衡。
具体举措包括:
-
安全引导:遇到可能存在风险的选择时,引导青少年倾向更安全的方案。
-
现实支持:鼓励青少年进行线下交流;当对话进入高风险话题时,主动提供可信赖的线下支持渠道与紧急干预机构的联系方式。
-
沟通风格调整:要求 AI 以“热情且尊重”的方式与青少年沟通,避免居高临下或说教式语气。
此外,OpenAI证实正研发年龄预测模型。一旦系统识别用户可能未满18岁,将自动启用青少年保护机制。
Anthropic:借助对话线索判断未成年身份
鉴于Anthropic的政策不允许18岁以下用户使用其聊天机器人 Claude,该公司正推出更严格的检测体系。该系统旨在捕捉对话中暗示用户可能为未成年人的“细微信号”,并可自动识别与关停违规账号。
Anthropic还展示了其在减少“谄媚行为”(sycophancy)方面的进展,认为降低 AI 对用户错误或有害倾向的盲目迎合,有助于守护未成年人的心理健康。
此次头部公司的同步发力,背景是立法者正加强对 AI 企业在心理健康影响方面的问责压力。OpenAI曾卷入一起涉及青少年自杀的诉讼,指控称其机器人提供了不当引导。为此,公司近期上线了家长控制功能,并严格限制 AI 讨论自残等极端话题。
用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?