Anthropic 推出80页《AI 宪章》,用伦理准则打造最安全的 Claude

本周三,在达沃斯世界经济论坛上,AI 初创公司巨头 Anthropic 的首席执行官达里奥·阿莫迪(Dario Amodei)公开推出了更新版《克劳德宪章》(Claude Constitution)。这份长达 80 页的动态文档,既系统说明了 Claude 的运行逻辑,也体现了 Anthropic 希望在激烈的 AI 竞争中树立“伦理标杆”的决心。

Claude

核心思路:用“宪法”替代人工干预

不同于 OpenAI 或 xAI 更依赖人类反馈的训练方式,Anthropic 采用并坚持其自研的**“宪政人工智能”(Constitutional AI)**框架。模型依据一组明确的自然语言准则进行自我检查与纠偏,从源头减少有害、歧视或违规内容的出现。

四项核心价值:让 AI 更加“克制”

修订后的宪章把 Claude 的行为规则拆分为四个方向,旨在将其塑造为包容、民主且理性的智能体:

  1. 总体安全性:遇到涉及心理危机或生命安全的求助时,Claude 需优先引导用户联系紧急服务并给出安全提示,而不是只给出普通文字回复。

  2. 广泛的道德感:文档强调“做得到的伦理”比“空谈理论”更重要,要求 Claude 能灵活处理现实中的复杂道德问题。

  3. 合规约束:明确禁止触及如研发生物武器等高风险敏感主题的讨论。

  4. 真心实意的帮助:Claude 要在“当下需求”和“长远利益”间做平衡,给出不只迎合短期诉求的最佳建议与说明。

品牌差异:把伦理当成竞争力

在科技圈普遍追求快速颠覆的背景下,Anthropic 选择了一条看似“不刺激”但更稳妥的路径。凭借这份细致的文件,Anthropic 把自身定位为更注重社会责任的玩家,与偏好争议与激进增长的竞争者区隔开来。

哲学探讨:AI 是否具备意识?

同样引人注意的是,宪章末尾提出了一个耐人寻味的哲学命题:“克劳德的道德地位仍高度不确定。” Anthropic 表示,AI 的道德地位值得严肃对待,并称这一问题已被多位顶尖心智理论学者关注。这也意味着公司在追求技术安全的同时,正尝试探寻机器意识的边界。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享