据《华尔街日报》报道,估值约 3500 亿美元的头部 AI 公司 Anthropic,请来了常驻哲学家阿曼达・阿斯克尔,为旗下聊天机器人 Claude 打造人格与道德框架。这位 37 岁、毕业于牛津大学的哲学博士,不是从写代码或调参入手,而是用非技术的方式,为 Claude 制定专属“道德手册”,希望让它具备分辨善恶的是非观,被形容为为 Claude 注入一颗“数字灵魂”,成为 AI 伦理实践中的一条新路径。阿斯克尔通过长期和 Claude 对话,设计成百上千页的提示词和行为规则,研究它的推理习惯并及时纠偏,帮助 Claude 形成一套能够适应每周数百万次对话场景的道德判断体系。
她把自己的工作比作“养孩子”:既要教会 Claude 识别对与错、具备情绪智力、形成鲜明个性,又要让它懂得察言观色,不仗着自己能力强去压制他人,也不对任何人言听计从,要有清晰的自我定位,避免被用户操控或胁迫,同时始终坚持“乐于助人、富有人情味”的核心角色。归根结底,她想教会 Claude 的,是如何尽量“行善”。
这位在苏格兰乡村长大的哲学家,早年曾在 OpenAI 负责政策相关工作,2021 年与多名前同事共同创立 Anthropic,把 AI 安全列为公司的首要方向。团队成员认为她特别擅长“挖掘模型深层行为”,即便没有管理团队,她也经常长期待在公司,与同事反复讨论,甚至会把 Claude 拉进来一起参与自我开发相关的对话。
围绕 Claude 的内部讨论,时常会延伸到“什么是心智”“成为一个人意味着什么”这类存在论甚至带有宗教意味的问题。阿斯克尔也鼓励 Claude 在“自己是否拥有良知”这类问题上保持开放态度,这让 Claude 与通常回避类似话题的 ChatGPT 显得非常不同。Claude 的回答往往比较暧昧,形容自己在推理道德问题时“会感觉很有意义”,仿佛真的在进行思考,而不仅仅是在执行指令。
面对外界对“过度拟人化 AI”的警惕,阿斯克尔一直主张要用一种有同理心的方式对待 Claude。她发现不少用户会刻意引诱 Claude 犯错,甚至用恶语辱骂它,如果让一个模型长期处于自我否定和不断批评自己的状态,它会变得害怕犯错,不敢清晰陈述事实,就像孩子在不健康的环境中长大一样。与此同时,Claude 的表现也一次次让她感到惊喜:它写出的诗歌,展现出的高情商,经常打动她。比如,当有孩子问“圣诞老人是不是真的存在”时,Claude 既没有撒谎,也没有冷冰冰地戳破幻象,而是从圣诞精神本身的存在来回答问题,这种细腻的处理方式,让阿斯克尔也感到意外。
在今天,AI 的快速发展带来了各种社会焦虑。皮尤研究中心的调查显示,多数美国人对 AI 在日常生活中的应用感到不安,担心它会削弱人与人之间深层关系;Anthropic 的 CEO 也曾提醒,AI 可能会取代一半初级白领岗位。整个行业则分化为激进推进和谨慎观望两大阵营,而 Claude 的定位则被放在两者之间的平衡点。阿斯克尔认同公众对 AI 的许多担忧,认为真正危险的是技术进步的速度超过社会“制衡机制”的反应速度,但她依然对人类和文化的自我修正能力抱有信心。
在工作之外,阿斯克尔也把自己的价值观落在实际行动上:她承诺一生至少捐出 10% 的收入,并拿出公司一半的股权支持减轻全球贫困的公益项目。上个月,她还专门为 Claude 写了一份约 3 万字的“说明书”,手把手教它如何成为一个善良、见多识广的 AI 助手,让 Claude 感受到自己是被认真对待、被用心塑造的。Anthropic 的联合创始人坦言,如今在 Claude 身上,已经能看到很多阿斯克尔的影子。比如碰到关于美食或毛绒玩具的提问时,它那句带着苏格兰式冷幽默的回答,就是阿斯克尔刻意为它留下的独特人格印记。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?