奥特曼提示“梦游式”用AI的隐患:别用便利透支安全,OpenAI 将放缓招人

OpenAI 首席执行官 Sam Altman 最近在开发者交流会上发出强烈提醒,称 AI 代理的强大功能与超高便利性,正让人们在安全基础设施尚不完善时就把过多控制权交给它。奥特曼还以自身经历为例,原本决定严格限权,却在短短两小时后因“代理看起来很靠谱”而改变想法,给模型开放了对其电脑的完全访问。 他担心这种“人生苦短、先图省事”的盲目信任,可能让社会像梦游一样滑向潜在的灾难性风险。

关于安全上的空白,奥特曼指出,缺少全球性的安全基础设施是当前最大的隐患。 随着模型能力快速提升,安全漏洞或兼容性问题可能隐藏数月不被发现。他认为,信任与风险的不匹配,正是创业者的机会——当务之急是搭建“全局安全基础设施”。此前,OpenAI 的一些开发者也提出类似担心:如果企业为追求效率让 AI 接管整个代码库,可能会失去对核心资产的掌控,甚至引发严重的安全违约。

ChatGPT OpenAI  人工智能 (1)

在产品策略方面,奥特曼透露 GPT-5 的研发方向是“少一点文采,多一点逻辑”。他直言,相比 GPT-4.5,GPT-5 在文学写作和编辑润色上甚至有所“退步”,原因是研发重心已全面转向推理能力、逻辑构建与代码实现。尽管如此,他仍坚持未来属于强大的通用模型,希望即便专注编码的模型,最终也能具备优雅的写作能力,实现理性与表达的平衡。

与此同时,OpenAI 内部正在进行管理理念的调整,计划首度放缓人员扩张。奥特曼表示,公司希望用更精简的人手完成更多工作,避免因盲目扩张而在“发现 AI 能胜任大部分工作”后陷入被动裁员。虽然外界有质疑认为他在用 AI 叙事对冲不断上涨的人力成本,但这也说明头部 AI 企业正尝试通过自身实践,探索 AI 时代的“高人效”组织模式。

这股“模型更高效、人员更克制”的趋势,映射出 AI 行业正从野蛮生长走向精细化耕耘。奥特曼的提醒不仅是在告诫用户,也是对行业过度激进的降温。他强调,在推理与逻辑能力突飞猛进的同时,人类必须保持警惕,不能因为 AI 的低故障率而忽视那极小却可能致命的风险。围绕“高速进化”与“谨慎掌控”的拉扯,将成为 OpenAI 乃至整个 AI 行业在 2026 年的主旋律。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞11 分享