在人工智能竞赛不断升温的背景下,曾引发广泛担忧的“AI毁灭论”出现了新转折。多方报道称,前 OpenAI 员工、知名 AI 专家 Daniel Kokotajlo 近日调整了他对超级智能可能威胁人类的时间判断。他表示,通用人工智能(AGI)的推进速度看起来比他先前设想的“稍慢一些”。

图源说明:图片由AI生成,授权服务方为 Midjourney
过去,Kokotajlo 提出的“AI2027”曾引发巨大争议。这一设想描绘了激进路线:AI 将在 2027 年实现完全自主编程,随即演化为难以控制的超级智能,并在 2030 年代中期走向毁灭人类的结局。该观点一度被美国政界人士引用,但也遭到神经科学教授 Gary Marcus 等人的强烈质疑,被批评为更像“科幻剧情”。
不过,来自现实的最新反馈让这位专家态度更为谨慎。根据 公开动态 的最新观察,Kokotajlo 在更新后的判断中,将 AI 达到自主编程的时间推迟到 2030 年代初期,并把超级智能出现的窗口期放在大约 2034 年。他坦言,目前 AI 在复杂真实环境中的表现仍存在“失衡”和不稳定之处。
尽管如此,行业巨头并未踩刹车。OpenAI 首席执行官 Sam Altman 曾透露,公司内部的目标是在 2028 年前实现“自动化的 AI 研究员”。虽然“毁灭人类”的末日时钟似乎被往后拨动,但专家们仍提醒:现实世界远比设想复杂,AGI 真正到来的时间依旧充满不确定性。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?