随着全球对青少年网络安全的关注不断升温,两大人工智能公司OpenAI和Anthropic于本周四表示,将更主动地识别并保护未成年用户。两家公司计划用 AI 模型推断用户年龄,并围绕青少年群体更新产品规则。
OpenAI:安全优先,更新青少年互动规范
OpenAI在其近期发布的“模型规范”中,新增了面向18岁以下用户的四项核心原则。公司明确称,今后 ChatGPT 与13至17岁青少年交流时,将把“青少年安全”放在首位,即便这可能与其他目标(如尽可能的思想自由)发生冲突。
具体举措包括:
-
安全引导: 在面临风险选择时,引导青少年走更安全的选项。
-
现实支持: 鼓励青少年开展线下互动,当对话进入高风险领域时,主动提供可信的线下支持或紧急机构联系方式。
-
沟通风格调整: 要求 AI 以“热情且尊重”的方式与青少年沟通,避免居高临下的语气。
此外,OpenAI证实正在研发一种年龄预估模型。一旦系统判断用户可能未满18岁,将自动启用面向青少年的保护机制。
Anthropic:通过对话特征判断未成年身份
由于Anthropic的政策不允许18岁以下用户使用其聊天机器人 Claude,该公司正开发一套更为严格的检测系统。该系统会捕捉对话里暗示用户或为未成年的“细微信号”,并可自动识别并关停不合规账号。
Anthropic还展示了其在减少“谄媚行为”(sycophancy)方面的进展,认为降低 AI 对用户错误或有害倾向的盲从,有助于保护未成年人的心理健康。
此次两家公司的同步动作,背景是立法者正加大对 AI 企业在心理健康影响方面的施压。OpenAI此前曾卷入一起与青少年自杀相关的诉讼,指控称其机器人给出了错误引导。为此,公司近期上线了家长控制功能,并严格限制 AI 涉及自残等极端话题的讨论。
用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?