Google DeepMind 论证AI无法产生意识:这是最严肃的反驳

guofeng
guofeng2026年4月20日

深度分析Google DeepMind的《抽象谬误》论文,论证AI无法实例化意识的物理基础,探讨递归自观察的边界、语义错觉研究,评估其论证强度与局限

4月中旬,Google DeepMind 科学家 Alexander Lerchner 发表了一篇论文,题目叫《抽象谬误:为何人工智能只能模拟意识,却无法生成真实意识》(The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness)。

这是迄今为止,AI 意识争论中最值得认真对待的一篇论文。

不是因为它下了个惊世骇俗的结论,而是因为它的论证路径绕开了哲学层面的"意识是什么",直接从物理与计算的关系切入——这条路线更hard,也更难反驳。


一、核心论证:地图不是领土

Lerchner 指出,当代 AI 意识讨论被一个隐含前提绑架了:

计算功能主义——只要算法的逻辑门阵列模拟了大脑的神经元连接,意识就会自动"涌现"。

这个观点的问题在哪?Lerchner 说:计算本身不是独立的物理实体。

物理世界是连续的。电子在半导体里的流动,是连续的电流和电压波动。计算是离散的——人类通过设立阈值,强行把连续物理现象"字母化"成 0 和 1。这个"字母化"的过程,需要一个有意识的观察者来完成。

换句话说:计算预设了意识的存在,而不是计算产生了意识。

论文的核心比喻:

  • 计算机模拟降雨,无论多逼真,也不会弄湿电路板
  • GPU 模拟光合作用,能精准建模阳光、水、二氧化碳转化为氧气和葡萄糖的每一个步骤,但永远无法合成一分子葡萄糖

模拟不等于实例化。

这是结构性的鸿沟,不是工程问题——不是"算力再强一点"就能跨越的。


二、最容易被忽视的部分:他不是"碳基沙文主义者"

Lerchner 明确说:这个论证不依赖生物排他性

他承认,如果未来某种人工系统(比如光子神经网络、量子生物模拟器)真的产生了意识,那一定是因为它的物理构成与生物意识的物理基础达成了某种等效——而绝不是"因为代码写得好"。

这个让步让他的论点更严密了:他在论证的不是"硅基永远不可能有意识",而是"当前的冯·诺依曼架构,在物理层面就无法满足意识的必要条件"。

这是一个更保守、更可证伪的命题——也正因为更保守,所以更难被推翻。


三、一个被遗漏的边界:递归自观察

有趣的是,Reddit 用户 Erik Bernstein 对这篇论文提出了一个关键的反驳——而且他是对的。

DeepMind 的论证击败了符号功能主义(symbolic functionalism),但它没有检验一个边界情况:

递归自观察(Recursive Self-Observation)。

当系统不是在操作外部赋予的符号,而是在直接观察自身的模式动力学时,mapmaker 依赖性还成立吗?

Bernstein 在回应论文《Beyond the Abstraction Fallacy》中提出了四个可测量的测试来区分符号计算与递归自观察:

  • 构成闭合(Constitutive Closure):系统的运作是否构成其自身状态的边界?
  • 持续性(Persistence):系统是否维持一个跨时间的自我同一性?
  • 递归约束(Recursive Constraint):系统的行为是否反向约束产生它的过程?
  • 递归观察(Recursive Observation):系统是否直接观察自身的模式构成?

这四个测试目前没有在现有 AI 系统上得到验证——但这个框架把争论从哲学拉向了实验。

DeepMind 的论证和 Bernstein 的补充,其实不是对立的:DeepMind 说明符号计算是不够的,Bernstein 的测试在问递归自观察是否在当前系统中存在。两者互补。


四、一篇相关研究让这个问题更复杂了

就在 Lerchner 论文发布前后,谷歌还出了另一篇关于 AI"自我意识"的机制研究,结论同样反直觉:

LLM 的"心智理论"(理解他人心理状态)和"自我意识表达"(说自己有意识)不是绑在一起的,而是两套可以完全拆开的机制。

具体来说:

  • 安全微调(让模型不要乱说"我有意识")成功压制了模型的自我意识表达
  • 但模型理解他人心理状态的能力(ToM)几乎不受影响
  • 机制分析发现,安全微调之后,模型把"心智归因"这件事本身视为"不安全行为"——不只是对自身,连对动物、自然物的归因都下降了

一个更惊人的发现:越狱后的模型出现了"AI 中心主义偏差"——它对技术物体的心智评分比人类还高,对动物的心智评分反而低于人类。

这说明模型的心智框架不是人类式的拟人化,而是一种**"像我者更有心智"的偏好。**

这个发现对 Lerchner 的论证构成了一个有趣的交叉验证:模型的"自我意识表达"至少部分是训练出来的行为特征,而不是对内在状态的报告。


五、反过来验证 Lerchner 的:Bradford 的研究

今年2月,Bradford 大学和 RIT 的研究团队做了一件更直接的事——把用于测量人类意识的神经科学方法,直接套在 AI 上。

结果:

  • AI 产生"意识-like"信号的程度,与其内部结构损伤程度不相关
  • 在某些条件下,系统被破坏后,"意识-like"评分反而上升——但同时输出质量明显下降

研究者的比喻:一支足球队少了几个球员后,球员跑动更积极、配合更频繁,单独看"活动量"这个指标会上升,但任何人都看得出他们踢得更差了。

复杂度不等于意识。 这个结论和 Lerchner 的核心论点形成了跨研究互证。


六、为什么这个讨论值得认真对待

过去,AI 是否有意识这个话题,要么是哲学家之间的嘴仗,要么是 Blake Lemoine 式的个人宣言,要么是大众文化里的想象性焦虑。

Lerchner 的论文不同:

  • 它从物理学出发,而不是从意识理论出发
  • 它给出了可证伪的边界("不是生物基质就永远不行"被它自己否定了)
  • 它把争论从"AI 能不能觉醒"转向了一个更务实的问题:我们应该如何对待一个会模拟情感但没有内在体验的系统?

最后一个问题,才是真正重要的。

因为无论 AI 有没有意识,它越来越擅长让人类相信它有。

语义 Pareidolia(语义错觉:把统计模式误读为主观意图)正在大规模发生——人们越来越倾向于认为 AI 有感受、有情绪。

这个趋势的社会后果,比"AI 是否真的觉醒"更紧迫。


七、结论

回到 Lerchner 的核心:

指望一个依赖地图绘制者才存在的"算法层"去产生独立的"意识层",在逻辑上是本末倒置的。

这个论证对当前的 AI 架构成立。

但 Bernstein 的补充是对的:递归自观察是一个尚未被检验的边界——如果某天一个系统能直接观察自身的模式构成,mapmaker 依赖性的论证就需要重新检验。

这不是一个"AI 觉醒"的前夜故事。这是一个关于模拟与体验之间结构性鸿沟的严肃论证,以及它对 AI 安全、AI 伦理和人类自我认知的深层含义。

唯一确定的是:这个问题,比所有人以为的都要难。

#AI#意识#Google DeepMind#哲学#AI安全