前 OpenAI 研究员提醒:AI不擅长“知错能改”,AGI卡在关键门槛

虽然如今的大模型在逻辑推理和任务执行上表现亮眼,但有个长期被忽视的底层问题,正可能成为通往通用人工智能(AGI)的拦路虎。近日,曾参与 OpenAI 推理模型 o1 与 o3 的核心研究员 Jerry Tworek 在接受采访时直言:现阶段的AI很难把失败经验转化为自身的改进。

Tworek 指出,当当前的模型在一个问题上翻车时,开发者常常束手无策,因为缺少有效的机制让模型根据失败来更新内部的知识或信念。他形容目前的训练方式本质上“非常脆弱”,一旦遇到训练之外的新情形,模型就容易出现“推理崩溃”。这与人类那种具备自我稳定、能自我修复的学习方式形成强烈对比。

正因如此,Tworek 最近已离开 OpenAI,专注探索让AI能自主化解难题、走出困境的技术路径。他强调,如果模型在遭遇挫折时无法自我进化,那就很难被称为真正的 AGI。在他看来,智能应当像生命一样“总能找到出路”,而当下的AI距离这种状态还差得很远。

划重点:

  • 🧠 核心短板:前 OpenAI 研究员 Jerry Tworek 指出,当前AI缺少从失败中学习的机制,难以像人类那样通过纠错来更新内部认知。

  • 🚧 AGI门槛:模型在未知场景下的“脆弱性”和容易“卡住”的情况,被认为是实现通用人工智能的主要技术障碍。

  • 🛠️ 专家动向:为攻克这一根本问题,o1 系列模型的关键人物 Tworek 已离职,投入研发能自主摆脱困境的新一代AI架构。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享