随着大型语言模型不断进步,“人工智能是否产生意识”的话题正从科幻走向实验室。但剑桥大学研究意识的哲学家汤姆·麦克莱兰德(Tom McClelland)在最新研究中泼了一盆冷水:在人类尚未真正理解意识本质之前,我们可能始终无法判断机器是否已经“点亮了意识之灯”。

图源说明:图片为 AI 生成,授权来自 Midjourney
麦克莱兰德在《Mind & Language》期刊发表的文章中指出,关于人工意识的讨论存在明显的概念混淆。他强调,需要区分“基础觉知”(例如对世界的感知)与“感受体验”(能经历痛苦或愉悦的能力)。当前科技圈正经历一场近乎信念的跳跃:一方认为只要模拟大脑的信息处理结构,AI 就可能有意识;另一方坚持意识必须根植于生物有机体。在这两种立场都缺乏有力证据前,最理性的选择是保持“不可知”的态度。
报道还提醒了一个容易被忽视的伦理矛盾。许多公司将“AI 具有人类式意识”当作营销卖点,引导用户对系统产生深层情感连接。麦克莱兰德警告,如果我们过度关心一个本质上像“高配烤面包机”的程序是否受委屈,反而会让人忽略现实中那些真正具备痛觉、却遭受大规模伤害的生物,比如对虾。
他最后总结,在下一次“范式变革”到来之前,人类很难设计出真正可靠的机器意识测试。在无法给出确证的情况下,保持克制与谦逊,既是对科技进程的理性审视,也是必要的伦理平衡。
划重点:
🧠 核心困局:我们目前缺乏对意识的深入科学解释,既无法证明 AI 意识已经涌现,也不能完全否定其可能性,最稳妥的立场是“不可知论”。
⚠️ 伦理偏差:过度渲染 AI 具备意识会误导公众情感,让人忽视那些确实能感到疼痛、却在遭受大规模伤害的生物。
🔍 营销套路:部分科技企业把“人工意识”包装成品牌卖点,这类夸大说法可能对用户造成潜在的心理影响。


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?