微软AI负责人Mustafa Suleyman发出提醒:别把“对齐”当“控制”,可控性是AI发展的关键红线

在通用人工智能(AGI)竞争持续升温的当下,微软AI首席执行官Mustafa Suleyman向行业发出警示:我们正把两个重要概念混在一起——“控制”和“对齐”。他在社交平台X上直言,如果一个AI系统无法被有效控制,不管它的目标多么贴近人类价值观,依旧是不可靠、甚至危险的。

Suleyman强调,业界如今过度关注让AI“理解”人类意图(即对齐),却忽视了更基础的一步——确保系统行为始终在清晰、硬性的边界之内(即控制)。他打了个比方:“一个失控的系统,你根本驾驭不了,哪怕它说‘我爱你’。”在他看来,追求更强大的智能之前,必须先建立可验证、可执行的控制框架,这是AI安全的底线,不能退让。

在微软AI博客上他发表的《人文主义超智能》一文中,Suleyman进一步展开了这个思路。他主张,AI的发展应从对“完全自主的通用智能”的幻想,转向在医疗诊断、新药研发、清洁能源等高价值场景,部署受控、专注、可审计的智能系统。这种“人文主义超智能”不追求万能,而是以解决人类最紧迫的问题为目标,并始终置于人类监督之下。

值得一提的是,Suleyman也展现出强调协作的态度。他表示正与多家头部AI公司的高管保持密切沟通,并公开认可埃隆·马斯克“直面问题、推动安全讨论”的作用,同时称赞Sam Altman“高效且有强大推进力”。但他再次强调,不管技术路线如何不同,“控制都必须是所有AI研发的起点和红线”。

在AI能力快速跃迁的2026年,Suleyman的提醒为狂热的竞赛降温:真正的智能,不只在于能做什么,更在于必须不能做什么。只有先把控制的堤坝筑牢,对齐的目标才能不被未知风险掀翻。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享