保护未成年用户:OpenAI与Anthropic拟推AI年龄识别功能

 伴随全球对青少年在线安全的关注持续升温,两大人工智能公司OpenAIAnthropic于本周四宣布,将采取更主动的举措来识别并保护未成年用户。两家企业计划借助 AI 模型推测用户年龄,并针对青少年群体调整产品指引。

OpenAI:安全优先,升级青少年互动规范

OpenAI在其最新发布的“模型规范”中补充了四项面向18岁以下用户的关键原则。公司明确表示,未来 ChatGPT 在与13至17岁青少年交流时,将把“青少年安全”置于最高优先级,即便这可能与其他目标(如最大限度的思想自由)产生权衡。

具体举措包括:

  • 安全引导:遇到可能存在风险的选择时,引导青少年倾向更安全的方案。

  • 现实支持:鼓励青少年进行线下交流;当对话进入高风险话题时,主动提供可信赖的线下支持渠道与紧急干预机构的联系方式。

  • 沟通风格调整:要求 AI 以“热情且尊重”的方式与青少年沟通,避免居高临下或说教式语气。

此外,OpenAI证实正研发年龄预测模型。一旦系统识别用户可能未满18岁,将自动启用青少年保护机制。

Anthropic:借助对话线索判断未成年身份

鉴于Anthropic的政策不允许18岁以下用户使用其聊天机器人 Claude,该公司正推出更严格的检测体系。该系统旨在捕捉对话中暗示用户可能为未成年人的“细微信号”,并可自动识别与关停违规账号。

Anthropic还展示了其在减少“谄媚行为”(sycophancy)方面的进展,认为降低 AI 对用户错误或有害倾向的盲目迎合,有助于守护未成年人的心理健康。

此次头部公司的同步发力,背景是立法者正加强对 AI 企业在心理健康影响方面的问责压力。OpenAI曾卷入一起涉及青少年自杀的诉讼,指控称其机器人提供了不当引导。为此,公司近期上线了家长控制功能,并严格限制 AI 讨论自残等极端话题。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞6 分享