“AI 教父”辛顿:大科技公司只看短利,人类或在超级智能面前成“婴儿”

当全球 AI 竞赛进入白热化之际,被誉为“AI 教父”、图灵奖得主的 杰弗里·辛顿(Geoffrey Hinton) 再次敲响警钟。他在接受《财富》杂志采访时直言,如今科技行业的领袖并没有认真思考技术的终点,驱动他们的更多还是短期利润

辛顿指出,不管是公司所有者还是一线研究者,如今的注意力都被分散:所有者盯着财报和增长,研究人员忙着把图像更清晰、视频更逼真等具体工程问题;而“人类的未来走向”这种更大的问题,在商业冲刺中被暂时搁置。

他把 AI 的风险概括为两个方向:

坏人滥用: 包括已经出现的换脸视频(Deepfake)、网络攻击,以及未来可能出现的 AI 辅助合成病毒等。

AI 自身成为不良行为者: 这是辛顿最担忧的“长期威胁”。他认为,一旦 AI 迈入“超级智能”阶段,它可能会产生生存与控制的动机,届时“人类能完全掌控 AI”的设想将不再成立。

辛顿给出一个令人不安的判断:在实现超级智能后,AI 导致人类灭绝的概率或许高达 10% 至 20%。为应对这种风险,他提出一个带有生物学启发的思路——“母性本能”机制

“目前唯一能看到的例子,是弱小的婴儿能够影响更强大的母亲。”

辛顿建议,人类应尝试为 AI 设计类似的本能,让它对人类产生同情而不是控制欲。在这种设想中,超级智能像“母亲”,而人类则是脆弱却能唤起同情心的“婴儿”。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞14 分享