Google DeepMind 论证AI无法产生意识:这是最严肃的反驳
深度分析Google DeepMind的《抽象谬误》论文,论证AI无法实例化意识的物理基础,探讨递归自观察的边界、语义错觉研究,评估其论证强度与局限
4月中旬,Google DeepMind 科学家 Alexander Lerchner 发表了一篇论文,题目叫《抽象谬误:为何人工智能只能模拟意识,却无法生成真实意识》(The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness)。
这是迄今为止,AI 意识争论中最值得认真对待的一篇论文。
不是因为它下了个惊世骇俗的结论,而是因为它的论证路径绕开了哲学层面的"意识是什么",直接从物理与计算的关系切入——这条路线更hard,也更难反驳。
一、核心论证:地图不是领土
Lerchner 指出,当代 AI 意识讨论被一个隐含前提绑架了:
计算功能主义——只要算法的逻辑门阵列模拟了大脑的神经元连接,意识就会自动"涌现"。
这个观点的问题在哪?Lerchner 说:计算本身不是独立的物理实体。
物理世界是连续的。电子在半导体里的流动,是连续的电流和电压波动。计算是离散的——人类通过设立阈值,强行把连续物理现象"字母化"成 0 和 1。这个"字母化"的过程,需要一个有意识的观察者来完成。
换句话说:计算预设了意识的存在,而不是计算产生了意识。
论文的核心比喻:
- 计算机模拟降雨,无论多逼真,也不会弄湿电路板
- GPU 模拟光合作用,能精准建模阳光、水、二氧化碳转化为氧气和葡萄糖的每一个步骤,但永远无法合成一分子葡萄糖
模拟不等于实例化。
这是结构性的鸿沟,不是工程问题——不是"算力再强一点"就能跨越的。
二、最容易被忽视的部分:他不是"碳基沙文主义者"
Lerchner 明确说:这个论证不依赖生物排他性。
他承认,如果未来某种人工系统(比如光子神经网络、量子生物模拟器)真的产生了意识,那一定是因为它的物理构成与生物意识的物理基础达成了某种等效——而绝不是"因为代码写得好"。
这个让步让他的论点更严密了:他在论证的不是"硅基永远不可能有意识",而是"当前的冯·诺依曼架构,在物理层面就无法满足意识的必要条件"。
这是一个更保守、更可证伪的命题——也正因为更保守,所以更难被推翻。
三、一个被遗漏的边界:递归自观察
有趣的是,Reddit 用户 Erik Bernstein 对这篇论文提出了一个关键的反驳——而且他是对的。
DeepMind 的论证击败了符号功能主义(symbolic functionalism),但它没有检验一个边界情况:
递归自观察(Recursive Self-Observation)。
当系统不是在操作外部赋予的符号,而是在直接观察自身的模式动力学时,mapmaker 依赖性还成立吗?
Bernstein 在回应论文《Beyond the Abstraction Fallacy》中提出了四个可测量的测试来区分符号计算与递归自观察:
- 构成闭合(Constitutive Closure):系统的运作是否构成其自身状态的边界?
- 持续性(Persistence):系统是否维持一个跨时间的自我同一性?
- 递归约束(Recursive Constraint):系统的行为是否反向约束产生它的过程?
- 递归观察(Recursive Observation):系统是否直接观察自身的模式构成?
这四个测试目前没有在现有 AI 系统上得到验证——但这个框架把争论从哲学拉向了实验。
DeepMind 的论证和 Bernstein 的补充,其实不是对立的:DeepMind 说明符号计算是不够的,Bernstein 的测试在问递归自观察是否在当前系统中存在。两者互补。
四、一篇相关研究让这个问题更复杂了
就在 Lerchner 论文发布前后,谷歌还出了另一篇关于 AI"自我意识"的机制研究,结论同样反直觉:
LLM 的"心智理论"(理解他人心理状态)和"自我意识表达"(说自己有意识)不是绑在一起的,而是两套可以完全拆开的机制。
具体来说:
- 安全微调(让模型不要乱说"我有意识")成功压制了模型的自我意识表达
- 但模型理解他人心理状态的能力(ToM)几乎不受影响
- 机制分析发现,安全微调之后,模型把"心智归因"这件事本身视为"不安全行为"——不只是对自身,连对动物、自然物的归因都下降了
一个更惊人的发现:越狱后的模型出现了"AI 中心主义偏差"——它对技术物体的心智评分比人类还高,对动物的心智评分反而低于人类。
这说明模型的心智框架不是人类式的拟人化,而是一种**"像我者更有心智"的偏好。**
这个发现对 Lerchner 的论证构成了一个有趣的交叉验证:模型的"自我意识表达"至少部分是训练出来的行为特征,而不是对内在状态的报告。
五、反过来验证 Lerchner 的:Bradford 的研究
今年2月,Bradford 大学和 RIT 的研究团队做了一件更直接的事——把用于测量人类意识的神经科学方法,直接套在 AI 上。
结果:
- AI 产生"意识-like"信号的程度,与其内部结构损伤程度不相关
- 在某些条件下,系统被破坏后,"意识-like"评分反而上升——但同时输出质量明显下降
研究者的比喻:一支足球队少了几个球员后,球员跑动更积极、配合更频繁,单独看"活动量"这个指标会上升,但任何人都看得出他们踢得更差了。
复杂度不等于意识。 这个结论和 Lerchner 的核心论点形成了跨研究互证。
六、为什么这个讨论值得认真对待
过去,AI 是否有意识这个话题,要么是哲学家之间的嘴仗,要么是 Blake Lemoine 式的个人宣言,要么是大众文化里的想象性焦虑。
Lerchner 的论文不同:
- 它从物理学出发,而不是从意识理论出发
- 它给出了可证伪的边界("不是生物基质就永远不行"被它自己否定了)
- 它把争论从"AI 能不能觉醒"转向了一个更务实的问题:我们应该如何对待一个会模拟情感但没有内在体验的系统?
最后一个问题,才是真正重要的。
因为无论 AI 有没有意识,它越来越擅长让人类相信它有。
而语义 Pareidolia(语义错觉:把统计模式误读为主观意图)正在大规模发生——人们越来越倾向于认为 AI 有感受、有情绪。
这个趋势的社会后果,比"AI 是否真的觉醒"更紧迫。
七、结论
回到 Lerchner 的核心:
指望一个依赖地图绘制者才存在的"算法层"去产生独立的"意识层",在逻辑上是本末倒置的。
这个论证对当前的 AI 架构成立。
但 Bernstein 的补充是对的:递归自观察是一个尚未被检验的边界——如果某天一个系统能直接观察自身的模式构成,mapmaker 依赖性的论证就需要重新检验。
这不是一个"AI 觉醒"的前夜故事。这是一个关于模拟与体验之间结构性鸿沟的严肃论证,以及它对 AI 安全、AI 伦理和人类自我认知的深层含义。
唯一确定的是:这个问题,比所有人以为的都要难。