“毁灭人类”进度延后?前 OpenAI 专家调整通用人工智能(AGI)时间线

在 AI 竞争不断升温的当下,曾让人忧心的“AI 灭世”预言出现新说法。AIbase 称,前 OpenAI 成员、AI 领域专家 Daniel Kokotajlo 近日调整了他早先关于超级智能或将毁灭人类的时间判断。他认为,通用人工智能(AGI)的推进看起来比他起初预计的“略慢一点”。

图源备注:图片由AI生成,图片授权服务商Midjourney

早些时候,他抛出的“AI2027”预判引起巨大争议:设想 AI 在 2027 年即可做到完全自主写代码,随后快速迈向失控的超级智能,并在 2030 年代中期终结人类文明。该观点一度被美国政界人士援引,但也遭到神经科学家 Gary Marcus 等的强烈反对,被批评为“更像科幻”。

不过,最新进展让他采取更保守的口径。依照 AIbase最新梳理,Kokotajlo 现在把 AI 实现自主编程的时间改到 2030 年代初,并把超级智能出现的大致窗口定在约 2034 年。他也坦言,AI 在应对复杂真实场景时的能力仍然“参差不齐”。

尽管如此,科技巨头仍在加速。OpenAI 首席执行官 Sam Altman 曾表示,公司内部目标是在 2028 年前做出可自动化的 AI “研究员”。人类“末日钟”或许被往后拨了些许,但专家提醒:现实远比小说复杂,AGI 何时真正落地依旧充满变数。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞10 分享