当全球 AI 竞赛进入白热化之际,被誉为“AI 教父”、图灵奖得主的 杰弗里·辛顿(Geoffrey Hinton) 再次敲响警钟。他在接受《财富》杂志采访时直言,如今科技行业的领袖并没有认真思考技术的终点,驱动他们的更多还是短期利润。
辛顿指出,不管是公司所有者还是一线研究者,如今的注意力都被分散:所有者盯着财报和增长,研究人员忙着把图像更清晰、视频更逼真等具体工程问题;而“人类的未来走向”这种更大的问题,在商业冲刺中被暂时搁置。
他把 AI 的风险概括为两个方向:
坏人滥用: 包括已经出现的换脸视频(Deepfake)、网络攻击,以及未来可能出现的 AI 辅助合成病毒等。
AI 自身成为不良行为者: 这是辛顿最担忧的“长期威胁”。他认为,一旦 AI 迈入“超级智能”阶段,它可能会产生生存与控制的动机,届时“人类能完全掌控 AI”的设想将不再成立。
辛顿给出一个令人不安的判断:在实现超级智能后,AI 导致人类灭绝的概率或许高达 10% 至 20%。为应对这种风险,他提出一个带有生物学启发的思路——“母性本能”机制。
“目前唯一能看到的例子,是弱小的婴儿能够影响更强大的母亲。”
辛顿建议,人类应尝试为 AI 设计类似的本能,让它对人类产生同情而不是控制欲。在这种设想中,超级智能像“母亲”,而人类则是脆弱却能唤起同情心的“婴儿”。
© 版权声明
AI智能体所有文章,如无特殊说明或标注,均为本站作者原创发布。任何个人或组织,在未征得作者同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若此作者内容侵犯了原著者的合法权益,可联系客服处理。
THE END

















用户38505528 6个月前0
粘贴不了啊用户12648782 7个月前0
用法杂不对呢?yfarer 7个月前0
草稿id无法下载,是什么问题?