我先说明一下:“前几天果蝇大脑上传”这条具体新闻,我现在没法核实它到底是“上传了连接组数据”“做了全脑仿真”,还是“实现了某种行为级复现”。但不管是哪一种,从我的理论看,这都不等于把果蝇的意识上传了。
我的看法很明确:
第一,上传结构,不等于上传体验。
现在这类“脑上传”大多是在复制神经连接、放电规则、行为映射,本质上还是在复制一种结构—功能模型。
而意识不是结构和功能本身,意识体验依赖于承载它的那个物质的内在属性。你把果蝇脑的连接图谱描得再精确,把算法跑得再像,它最多也只是把“果蝇会怎么反应”模拟出来,不代表那里真的出现了“果蝇正在体验什么”。
第二,我不认同“意识就是复杂模型涌现”的说法。
这是现在很多科普博主最喜欢讲的,但我认为这句话经不起推敲。复杂可以涌现出很多东西,比如模式、功能、适应性、智能行为,但涌现不出主观体验本身。
说白了:
一个系统可以越来越会识别、会学习、会决策、会表现得像有感觉,
但“像有感觉”和“真的有感觉”不是一回事。
前者是外部可描述的功能,后者是内部私有的现象属性。
第三,所谓“复杂到一定程度就有意识”,会卡死在组合问题上。
很多人默认:简单单元没有意识,组合复杂了就突然有意识了。
问题是,凭什么组合起来就会有一个统一体验?
物理结构可以组合,功能可以组合,但现象属性未必能组合。
这就是组合问题。
在我看来,现象属性不能靠普通结构拼装成一个完整主体。所以你不能因为一个模型很复杂、整合度很高,就断定它“觉醒”了。
第四,就算果蝇大脑被完美数字复制,也更像哲学僵尸,而不是意识转移。
它也许会表现得像果蝇:
会趋光、避刺激、寻找食物、表现出某种学习能力。
但这只能说明它复现了果蝇的行为规律,不能说明原来那个体验主体被搬过去了。
从我的理论看,同一意识要求对应的物理实在真正全同,而数字模型和原本承载意识的不可分物质,显然不是一回事。
所以这不是“上传了它”,更像是“做了一个行为上很像它的替身”。
第五,按我的框架,现有计算机架构本身就不具备产生主观意识的条件。
原因不只是“复杂度还不够”,而是方向就错了。
现有电脑处理的是离散的、结构化的符号和信号。
而我认为,有效体验还要求某种更深层的条件,比如能支撑时间测度的结构;没有那种条件,再复杂的代码执行也只是代码执行,不会变成真正体验。
至于果蝇本身,我还会补一句:
果蝇就算有某种很低级的体验,也未必是我们通常理解的“一个独立个体意识”。
按我的看法,低等动物的意识很可能不是一只对应一个完整主体,而可能是很多个体共享、分散、浑噩的。
那么你现在上传一个果蝇脑模型,离“把那个意识主体带过去”就更远了。因为你复制的只是局部功能组织,不是那个真正承担体验的东西。
所以我的结论很简单:
果蝇大脑上传,如果指的是数据化、连接组重建、软件仿真,那是神经科学和计算建模的进步,不是意识上传。
“意识是复杂模型涌现的结果”这句话,我不赞成。它把功能当成了体验,把可模拟性当成了可感受性。
你可以把我的态度概括成一句话:
我们现在能上传的,是脑的外在结构与功能描述;上传不了的,恰恰是意识最核心的那部分。
要是你愿意,我可以接着把“果蝇脑仿真成功”和“意识上传成功”之间差了哪几层,给你拆得更细一点。
发布于 上海
