在人工智能发展历程中,一个新的拐点正在到来。知名AI科学家Ilya Sutskever近日在访谈中,首次系统讲述了他离开OpenAI后创立SSI(安全超智能实验室)的新愿景。这次对话直击当下AI的痛点:模型测试成绩亮眼,却难以胜任真实任务。Ilya大胆表示,“拼规模”的时期已经结束;未来十年,AI将回到“像人一样学习”的路线,融入人类情感机制,迈向安全的超智能。
作为行业的先行者,Ilya的观点引发广泛讨论。他强调,AI不应再盲目堆参数,而要转向以价值为核心的学习方式。这种转变不仅关乎技术,也会重塑人类社会与智能的共生关系。AI现状之痛:高分却不善做事的“考试型机器”。当前大模型在标准化测试中屡创高分,但一到复杂真实场景就掉链子。Ilya指出,这些模型能完成预设题,却常在复杂任务中出现“循环失误”——修好一个bug,新的问题又冒出来。这不是小毛病,而是训练思路的根本问题。
在强化学习阶段,研发者过度追求“评测分数”,把模型训练成只会刷分的应试生,忽视了真实世界的泛化能力。结果是经济影响有限、应用落地受阻:AI会考高分,却不擅长干活。Ilya提醒,这条路已经走到尽头,必须从源头重构。
预训练vs强化学习:智能的真正基石。Ilya将训练分成两根支柱:预训练像一次“无偏的数据浸泡”,让模型从海量信息里自然映射人类世界;强化学习则依靠人为设计的“沙盒环境”,目标常被异化成“把分数做得好看”。他直言,这种失衡让AI缺少洞察与迁移。预训练打下广博知识,强化学习却成了“锦上添花的枷锁”。接下来,关键是把两者拉平衡——让AI从被动回答,走向主动理解。
人类智能的底层利器:情感驱动的价值函数。为什么人类能在复杂世界中游刃有余?Ilya的答案是“内在价值系统”,也就是情感机制。它像一只隐形罗盘,给学习指路:快乐带来正反馈,焦虑提示风险,羞愧校准社交规则,好奇激发探索。在AI语境下,这相当于一个动态的“价值函数”,让系统提前觉察“方向偏了”,而不是等到受罚才改。Ilya的洞见是:“真正的智能不只会预测,更要持续更新自己的价值体系。”如果AI能内化“自我评估”,就能开启“以意义为驱动的学习”,更像人类的智慧。
时代更替:从“规模狂奔”走向“结构创新”。回看过去十年,Ilya将其分为两段:2012-2020年的“研究时代”,以AlexNet、Transformer等架构突破点燃创新;2020-2025年的“规模时代”,沉迷于数据、算力、参数的堆砌。如今这套打法已“撞顶”:边际收益越来越小,创新空间被挤干。Ilya断言,规模时代已结束。即使算力继续暴涨,“再堆料”也难再带来奇迹。下一阶段的竞争,将转向“像人学习”的新原理——从量的扩张回到结构的革命,谁能抓住“情感泛化”,谁就有望领跑。
十年路线图:安全超智能的渐进曙光。展望未来5-20年,AI将学会人类式的学习:主动探索世界,理解物理与社会规律,自我反思偏差,跨模态、融多感官进行推理。这一跃升将带来巨变:生产力大幅提升,教育与科研的范式被重塑,人机关系进入“协作共智”的新阶段。但机遇伴随风险,Ilya一再强调“安全第一”:SSI将坚持渐进式部署与透明披露,每个阶段的能力、风险和控制机制都接受外部审查,确保公众与政府同步了解。Ilya的访谈像一剂清醒剂,提醒从业者:智能不是冷冰冰的算法堆叠,而是有温度的价值追求。SSI的探索,或许会成为通往安全超智能的灯塔,值得全球关注。

















用户38505528 2个月前0
粘贴不了啊用户12648782 3个月前0
用法杂不对呢?yfarer 3个月前0
草稿id无法下载,是什么问题?