奥特曼示警“梦游式”用AI:别为省事透支安全,OpenAI 将放缓招聘

OpenAI 首席执行官 Sam Altman 近日在开发者交流中发出强烈提醒,称 AI 代理的强大能力与极高便捷性,正在诱使人们在缺乏安全基础设施时,把过多的控制权交给它们。Altman 还以自身经历举例:本打算严格限制权限,却在仅仅两小时后因“代理看起来很可靠”而改变主意,让模型获得了对其电脑的完整访问。他担心这种“人生苦短、先享受”的盲目信任,会让社会像梦游一样滑入潜在的巨大风险。

针对安全空白,Altman 指出,全球性的安全基础设施缺位是当下的致命问题。 随着模型能力迅速提升,安全漏洞或兼容性隐患可能潜伏许久才被发现。他认为,这种信任与风险的不对称,反而给创业者带来巨大机会——搭建“全局安全基础设施”已刻不容缓。此前,已有 OpenAI 开发者提出类似担忧:企业若为追求效率而让 AI 全面接管代码库,可能会失去对核心资产的掌控,进而引发严重的安全违约。

ChatGPT OpenAI  人工智能 (1)

在产品策略上,Altman 披露 GPT-5 的研发方向:用“文采”换“逻辑”。他坦言,与 GPT-4.5 相比,GPT-5 在文学写作和编辑润色上甚至出现了“回撤”。主要原因是研发焦点全面转向推理能力、逻辑构建与代码实现。尽管如此,他仍坚持未来属于更强大的通用模型,希望即便是偏重编码的模型,最终也能写得优雅,实现逻辑与表达的平衡。

与此同时,OpenAI 内部管理理念正在调整,计划首次放缓员工增速。Altman 表示,公司希望用更精干的团队完成更多工作,避免因盲目扩张而在“发现 AI 能做大部分工作”后陷入裁员困境。尽管外界批评这是一种用 AI 叙事对冲高企人力成本的策略,但这确实反映出头部 AI 企业正尝试通过自身实践,探索 AI 时代的“高人效”组织模型。

这种“模型增效、人员减速”的信号,说明 AI 行业正从野蛮生长迈向精耕细作。Altman 的提醒既是对用户的告诫,也是对当下激进趋势的降温。他强调,在推理与逻辑能力快速进阶的同时,人类必须保持警惕,不能因为 AI 的低故障率而忽视那万分之一的毁灭性可能。在“极速进化”与“审慎控制”之间的拉扯,将成为 OpenAI 乃至整个 AI 行业 2026 年的主旋律。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享