维基百科向 AI 挥“红牌”:明令禁止 LLM 写作,违规或被处罚

维基百科对生成式 AI 的暧昧态度终于划上句号。

3 月 27 日,据 OSCHINA 报道,维基百科发布了最新政策变更声明,明确:不得使用大语言模型(LLM)来撰写或改写条目内容。这项规定得到了维基百科庞大志愿者编辑群体的压倒性支持。

禁令升级:由“不推荐”到“明确禁止”

核心冲突: 维基百科指出,LLM 产出的文字常常违背站内多项 核心内容政策,尤其在事实准确性与来源可信度上问题突出。

重写受限: 不仅禁止从零写新条目,借助 AI 对现有条目进行大规模改写同样被列为禁区。

仅留小“窗口”:AI 只做辅助建议者

基础编辑建议: 编辑可以用 LLM 为自己的文本提供一些 基本的编辑建议,但所有建议都必须经过人工认真审核后才能采纳。

严禁引入新内容: AI 只能做措辞或结构上的优化,采纳时不得夹带模型自行生成的任何新事实或新观点。

翻译指引: 使用 LLM 辅助翻译条目时,必须严格遵循 维基百科 LLM 辅助翻译指南,确保译文准确无误。

处罚尺度:不靠风格断案,关键看内容

警惕风格误判: 鉴于有些编辑的写法可能与 AI 相似,政策要求不能只凭语言风格就做出处罚决定。

综合判定: 任何处罚都要结合编辑近期的修订记录,重点检查文本是否违反核心内容政策。

社区共识:以 40 比 2 的票数高票通过

这项新规并非闭门拍板,而是通过社区投票形成的共识。统计显示,最终以 40 票赞成、2 票反对 获得通过。编辑们普遍担心,AI 生成的错误信息与“幻觉”会动摇维基百科作为全球可靠知识库的根基。

结语:守护人类编辑的底线

在 AI 文本泛滥的当下,维基百科的选择更像是一场“知识净土”的保卫战。通过把 AI 限定在辅助审阅的窄轨道内,维基百科试图在效率与严谨之间划清界线。即便“机器人稿件”在维基百科面前“404”,人类编辑的独立思考与核查能力,依旧是维基百科最不可替代的资产。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞8 分享