微软AI负责人Mustafa Suleyman警示:勿将“对齐”等同“控制”,可控性才是AI演进的关键红线

在通用人工智能(AGI)角逐日益激烈之际,微软AI首席执行官Mustafa Suleyman向全行业发出提醒:我们正在危险地混淆两个核心概念——“控制”和“对齐”。他在社交平台X上直言,只要AI系统无法被有效掌控,不管它的目标多么贴近人类价值,依旧是不可靠且具有潜在危险的。

Suleyman指出,当前业界过分重视让AI“理解”人类意图(即对齐),却忽略了更基础的前提——保证系统行为始终受人类设定的明确硬边界约束(即控制)。他打了个比方:“一个已经失控的系统,你根本驾驭不了,哪怕它一直对你表忠心。”在他看来,在追求更强智能之前,必须先建立可验证、可强制的控制框架,这是AI安全的不可逾越的底线。

这一主张在他最近发表于微软AI博客的文章《人文主义超智能》中被进一步展开。Suleyman认为,AI发展应从对“完全自主的通用智能”的幻想,转向在医疗诊断、新药发现、清洁能源等高价值、可衡量的场景中,落地受控、专注且可审计的智能系统。这类“人文主义超智能”不追求面面俱到,而是以解决人类最紧迫的问题为目标,并始终在人的监督之下运行。

值得一提的是,Suleyman也展示了难得的行业协作姿态。他透露,自己正与多家头部AI公司的高层保持紧密沟通,并公开认可埃隆·马斯克在推动安全议题上的直率价值,同时称赞Sam Altman“高效且极具推动力”。但他再次强调,不论技术路线如何分歧,“控制都必须成为所有AI研发的起点与红线”。

在AI能力加速跃升的2026年,Suleyman的提醒如同当头棒喝——让高速前进的行业冷静下来:真正的智能,不只在于能做到什么,更在于明确哪些事绝不能发生。只有先把控制的堤坝筑牢,承载对齐的船才不会被未知风险掀翻。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享