近日,DeepMind 创始人德米斯·哈萨比斯(Demis Hassabis)在公开活动中发出警示。他直言,正在研发的超级人工智能确实可能带来人类灭绝的风险,而全球范围内的 AI 研发之争已进入一种“不可逆”的失控加速状态。
哈萨比斯指出,在商业竞争和技术角逐的双重压力下,传统的外部监管方式已难以对 AI 产生有效约束。这番表态让业界更加担忧,AI 安全的“窗口期”正迅速收窄。

图源备注:图片由AI生成,图片授权服务商Midjourney
制度防线告急,安全规范被研发速度挤压
哈萨比斯曾长期倡导 AI 安全,早年还尝试通过独立监督和封闭研发来打造“技术保险箱”。然而,2022 年 ChatGPT 的出现彻底打乱了原有节奏。为应对竞争,谷歌等巨头合并研发力量,原先的安全审查机制也随之逐步弱化。
他承认,依靠伦理委员会和外部制度来限制 AI 的路径基本走不通。在激烈的商业博弈中,非营利治理机制往往难以维持真正的话语权。
依靠个人影响力,在核心决策位守住底线
面对逐步失控的局面,哈萨比斯调整了治理思路,试图通过占据核心决策位置发挥个人影响力。他一方面推进 Gemini 等顶尖模型的研发,另一方面凭借自身技术权威在关键节点把控风险走向。
这一转变折射出全球 AI 竞赛的现实:统一的全球治理越来越难实现。人类文明的安全,不得不更多寄望于少数技术领袖对风险的敬畏与最后的道德自律。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END


















用户38505528 7个月前0
粘贴不了啊用户12648782 8个月前0
用法杂不对呢?yfarer 8个月前0
草稿id无法下载,是什么问题?