“毁灭人类”时间线被推后?前OpenAI专家下调AGI到来节奏

在人工智能竞赛不断升温的背景下,曾引发广泛担忧的“AI毁灭论”出现了新转折。多方报道称,前 OpenAI 员工、知名 AI 专家 Daniel Kokotajlo 近日调整了他对超级智能可能威胁人类的时间判断。他表示,通用人工智能(AGI)的推进速度看起来比他先前设想的“稍慢一些”。

图源说明:图片由AI生成,授权服务方为 Midjourney

过去,Kokotajlo 提出的“AI2027”曾引发巨大争议。这一设想描绘了激进路线:AI 将在 2027 年实现完全自主编程,随即演化为难以控制的超级智能,并在 2030 年代中期走向毁灭人类的结局。该观点一度被美国政界人士引用,但也遭到神经科学教授 Gary Marcus 等人的强烈质疑,被批评为更像“科幻剧情”。

不过,来自现实的最新反馈让这位专家态度更为谨慎。根据 公开动态最新观察,Kokotajlo 在更新后的判断中,将 AI 达到自主编程的时间推迟到 2030 年代初期,并把超级智能出现的窗口期放在大约 2034 年。他坦言,目前 AI 在复杂真实环境中的表现仍存在“失衡”和不稳定之处。

尽管如此,行业巨头并未踩刹车。OpenAI 首席执行官 Sam Altman 曾透露,公司内部的目标是在 2028 年前实现“自动化的 AI 研究员”。虽然“毁灭人类”的末日时钟似乎被往后拨动,但专家们仍提醒:现实世界远比设想复杂,AGI 真正到来的时间依旧充满不确定性。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享