最近,人工智能公司 Anthropic 在博客发布文章,系统阐述其聊天机器人 Claude AI 为保持“政治中立”所做的工作。此举出台于前总统特朗普签署限制“觉醒 AI”政策的数月之后,反映出科技企业在政策环境变化下的敏锐与应对。
Anthropic表示,Claude 的目标是公平地对待相互对立的政治立场,在分析内容时兼顾深度、互动性与质量。尽管特朗普的行政令只覆盖政府部门,但其中对 AI 的要求可能会外溢影响其他公司,尤其是面向大众发布的大模型。值得注意的是,Anthropic并未在说明中直接引用该行政令。

为达成上述目标,Anthropic设定了多条系统提示,要求 Claude 避免输出“未经请求的政治观点”,并在回答中提升准确度、呈现“多个视角”。虽然这不是确保中立的万能方案,但 Anthropic认为,这些规范可以带来“实质性的改进”。
同时,Anthropic还采用强化学习,引导 Claude 的回答更贴近一组预设的“特征”。其中一个关键目标,是让 Claude 的输出不被归类为保守派或自由派。为评估中立性,Anthropic开发了开源测评工具。最新测试显示,Claude Sonnet4.5 与 Claude Opus4.1 的中立性评分分别达到 95% 和 94%,显著高于 Meta 的 Llama4(66%)与 GPT-5(89%)。
Anthropic在文中强调,若 AI 偏向某一立场,可能会更有力地支持单方观点,甚至否定部分论点,这既削弱用户的自主判断,也难以真正帮助用户形成全面看法。
划重点:
🌐 Anthropic致力于让 Claude AI 在涉及政治议题时保持中立,以适配最新政策环境。
🧠 Claude AI 通过系统提示与强化学习,提升回答的多元性与准确度。
📊 测试结果显示,Claude 的中立性评分高于多款同类模型,体现出其竞争优势。

















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?