AI年龄识别将至:OpenAI与Anthropic联手加强未成年人保护

 随着全球对青少年网络安全的关注不断升温,两大人工智能公司OpenAIAnthropic于本周四表示,将更主动地识别并保护未成年用户。两家公司计划用 AI 模型推断用户年龄,并围绕青少年群体更新产品规则。

OpenAI:安全优先,更新青少年互动规范

OpenAI在其近期发布的“模型规范”中,新增了面向18岁以下用户的四项核心原则。公司明确称,今后 ChatGPT 与13至17岁青少年交流时,将把“青少年安全”放在首位,即便这可能与其他目标(如尽可能的思想自由)发生冲突。

具体举措包括:

  • 安全引导: 在面临风险选择时,引导青少年走更安全的选项。

  • 现实支持: 鼓励青少年开展线下互动,当对话进入高风险领域时,主动提供可信的线下支持或紧急机构联系方式。

  • 沟通风格调整: 要求 AI 以“热情且尊重”的方式与青少年沟通,避免居高临下的语气。

此外,OpenAI证实正在研发一种年龄预估模型。一旦系统判断用户可能未满18岁,将自动启用面向青少年的保护机制。

Anthropic:通过对话特征判断未成年身份

由于Anthropic的政策不允许18岁以下用户使用其聊天机器人 Claude,该公司正开发一套更为严格的检测系统。该系统会捕捉对话里暗示用户或为未成年的“细微信号”,并可自动识别并关停不合规账号。

Anthropic还展示了其在减少“谄媚行为”(sycophancy)方面的进展,认为降低 AI 对用户错误或有害倾向的盲从,有助于保护未成年人的心理健康。

此次两家公司的同步动作,背景是立法者正加大对 AI 企业在心理健康影响方面的施压。OpenAI此前曾卷入一起与青少年自杀相关的诉讼,指控称其机器人给出了错误引导。为此,公司近期上线了家长控制功能,并严格限制 AI 涉及自残等极端话题的讨论。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享