本周三于达沃斯世界经济论坛,AI 初创公司 Anthropic 首席执行官达里奥·阿莫迪(Dario Amodei)正式公布了更新版《Claude 宪章》(Claude Constitution)。这份长达 80 页的动态文档,不仅全面说明了 Claude 的运行背景,也体现了 Anthropic 试图在竞争激烈的 AI 领域树立“伦理标杆”的用心。

核心思路:用“宪法”替代人工干预
与 OpenAI 或 xAI 更侧重人类反馈的训练方式不同,Anthropic 坚持采用其首创的**“宪政人工智能”(Constitutional AI)**框架。该体系让模型依据一套明确的自然语言准则进行自我监督,从源头减少有害、歧视或违规内容的生成。
四项核心价值:塑造更“稳重”的 AI
新版宪章将 Claude 的行为原则拆解为四个维度,目标是把它打造成包容、民主、理性的智能体:
-
总体安全性:当面对心理健康危机或生命风险的输入时,Claude 必须引导用户寻求紧急服务或提供安全指引,而不是仅给出普通文本回复。
-
广泛的道德感:文件强调“伦理实践”胜于“空谈理论”,要求 Claude 能灵活应对现实世界中复杂的伦理场景。
-
合规约束:明确禁止讨论涉及研发生物武器等高危敏感主题。
-
真心实意的帮助:Claude 需权衡用户的“当下需求”和“长期福祉”,提供不止满足眼前利益的更优解释。
品牌差异化:把伦理当成竞争力
在科技圈普遍追求快速颠覆的当下,Anthropic 选择了一条看似“平淡”却更稳健的路径。借助这份详尽文档,Anthropic 将自身定位为更具社会责任感的企业,与偏好争议或激进增长的竞争者形成对比。
哲学追问:AI 是否具备意识?
值得注意的是,宪章在结尾提出了一个颇具张力的哲学议题:“Claude 的道德地位仍充满不确定性。” Anthropic 指出,AI 的道德地位是严肃议题,并称这一观点得到多位一流心智理论学者的重视,暗示公司在追求技术安全的同时,也在探索机器意识的边界。

















用户38505528 6个月前0
粘贴不了啊用户12648782 7个月前0
用法杂不对呢?yfarer 7个月前0
草稿id无法下载,是什么问题?