在炸弹人游戏里的人工智能体能否进化出爱因斯坦

觉得这是一个有意思的命题。

我在学校读书的时候,参加过一个计算机系举办的“人工智能体设计大赛”,竞赛内容是为主办方简化版的“炸弹人”游戏编写ai,各位选手的ai在一个类似于世界杯的赛制中角逐。参加这种比赛也是弥补自己的一个遗憾,因为从1995年在小学五年级的时候接触计算机开始,就一直迷恋计算机和编程,进而在报考大学时一度憧憬进入清华计算机系,后来没有勇气放弃土木系的保送,而错过了成为IT码农的机会。这个大赛则让我能够一睹酒井BBS上高手的风采,何乐而不为。

当时(2005年)可能是人工智能领域在热度上的一个低谷,因为诸如神经网络算法这样的技术框架已经出现二三十年了,博弈论更不是什么新鲜的概念,而这个领域里激动人心的突破,也许还是1997年IBM的“深蓝”超级计算机战胜国际象棋大师卡斯帕罗夫。现在看,在那个社交网络、智能手机、移动互联横空出世的年代,人工智能领域那比乌龟快点的技术更新速度,是不足以吸引大众眼球的。因此我这种外专业的小鱼小虾,在宿舍里算法大神“举大哥”的指导下,在运气的垂青下,也杀进了学校的八强。

时下(2018年)大众和科技圈对社交网络、智能手机、移动互联已经感到厌倦了,人工智能则在AlphaGo、无人驾驶、智能对话、计算机视觉等领域出现进步后,热度得到很大提升。科普作家乃至科学家也描绘了人工智能技术的骇人未来,甚至人工智能最终将代替人类的预言喧嚣尘上。

由于有ai大赛这段经历,有时候我也在想人类智能和人工智能体的关系。如果你承认人类不过是进化程度较高的、由自然物质组成的智能体,灵魂和意识没有任何超越现代科学(相对论、量子物理的标准模型)的成分,而仅仅是物理神经网络上运行的一种算法,那么不妨想想这个命题:“在炸弹人游戏里的人工智能体能否进化出来爱因斯坦”。我们给运行“炸弹人ai”的主机足够的计算资源,让“炸弹人ai”能够在对抗中自我进化,几亿年后,是否有可能出现一个或者一群ai,他们也理解了像我们一样多的数学和物理定律?

至少在我的设想中,这是极不可能的。作为炸弹人ai,游戏平台给他们传递的信息是很有限的,即他们的感知是有限的。他们能感知2维的地图,能区分不同格子的属性、状态,能知道对手和炸弹的位置,基本信息只有这些。作为高级信息,我们可以把他们每一步思考实际占用的cpu指令步数告诉他们,让他们对时间有概念;我们还给他们每人一块足够大的有限的内存,让他们得以储备研究出来的知识;甚至我们可以让他们能够阅读并修改自己ai逻辑部分的代码。但游戏平台的代码他们接触不到,无法修改,那对他们来说那就是一系列api接口。他们也不知道CPU和内存是如何在外层世界的物理上实现的,他们只能生活在这可怜的内层世界里,如何指望他们研究出外层世界的广义相对论。甚至我想,他们可能连一些我们看来极为简单的概念都很难发展出来,比如实数,或者几何,直线、圆、立方体。另外,他们的知识将用什么方式进行表述也是一个谜。我们人类的知识大多用语言文字进行表述,炸弹人也许只能借助设置炸弹进行表达,这在我们看来是极其笨拙的。

反过来再想想人类,会不会我们也是生活在一个更大系统的内层世界中,接口屏障极大地限制了我们对于外层世界的想象力。我们得到了这个内层世界物理规律的最近似结果,就像炸弹人ai理解了他们所在世界的大多数逻辑一样,但是我们和他们还是隐约地觉得不自恰。作为已经发展出高深数学、哲学的炸弹人ai,他们可能会想,究竟是什么力量让诸如“mov [0x00132B4F], 0x00”之类的指令被发送后,在若干个指令周期后,内存位置0x00132B4F的数据就变成了0。我们也想问为什么精细结构常数a有1/137那样的取值。而我们用自然语言表述知识的方式,会不会在外层人看来也是没有希望的,为什么用一种灵长动物的叫声表述整个世界的“理念”。

更大的不自恰来源于对灵魂和意识的认识,我们每个人都知道自己躯体内有一个活着的灵魂,我想大多数人可能跟我看法一致,显然自己的灵魂和意识是区别于人工智能体的算法的。但可能有人会说,只要创造了一个人工神经网络,并给他配备相应的资源(算力、记忆空间),就创造了一个灵魂,而且网络足够强大的话,这个灵魂能够跟我们一样,觉得自己是一个鲜活的生命。灵魂不过是记忆和算力的相互作用。

承认设备具有生命,就是承认生命也只是设备。这是一种“生命的设备观”。为了更清晰阐述,这里和后文我用红色字体代表“设备观”的立场进行推演,用蓝色字体代表我的“反设备观”的立场进行反驳。

按这种生命设备的观念,我们的灵魂其实并不神秘,那只是复杂神经网络里自然涌现的一种概念。所谓“我”就是这个网络和它能读写的记忆集,我在写东西,你在阅读,都只是网络的一种行为,跟扫地机器人在扫地没有本质的区别。疼、冷、饥饿、幸福,则是网络的一些运行状态模式。我们生命普遍害怕死亡,是因为我们的记忆集害怕因设备损坏、记忆体物理破坏而无法读取、复制、重启而消散。而“我”这个概念本来就是依附于记忆集的,我的记忆定义了我,为什么我永远看到的是这个躯体的视角,是因为定义了我的记忆集存在在这个躯体上,并与之形成读写关系。

我认为有一个例子可能可以指出这种“生命的设备观”理论的不自恰,如果承认所有生命体(包括人工智能体)都仅仅是设备,灵魂是设备上运行的动态程序和记忆,想这样一个例子,有人把“你”这个设备暂停,采取技术手段进行快速复制,包括精确复制所有非量子力学的记忆信息(至少对于目前人类制造出的智能设备,这在技术上是完全可行的;量子力学的测不准的部分,应当合理认为那里不会保存关键的记忆信息,或是截断也不伤大局的记忆噪音),然后把你和复制体分别置于左右两张床上,左边天花板上写着1,右边天花板上写着2,同时把你和复制体唤醒,你看到的应该是1还是2?现在定义了你的记忆集同时出现在了两个设备上,那么你将是哪个人?

按照设备观的逻辑,复制体应该也能醒来并拥有你之前的全部记忆和灵魂。设备观之下,醒不来或者非噪音记忆信息复制不完备都是技术的不成熟,而不是理论上不可以。理论上,一天产生的可记忆的信息是能比特化的。例如音频信息最多按256kbits/s的码率被分辨,这肯定是信息量的上限,24小时的音频信息最多2.6G字节,即使对于今天的技术而言,这都不是什么惊世骇人的信息量。而且显然人类的神经网络算法会对它们进行有损和无损的信息压缩。如果你用智能手机对通话进行过录音,你会发现录音文件占用的空间惊人之小,即便你把每个月全部通话都录下来,几十兆也差不多够用。人一天说的所有话,假设按语速220字/分钟算,最多说几万字,纯语言信息几k至几十k就能保存下来。视频影像显然占用的空间大一些,但也不是无穷,估计一天的视觉记忆不会超过你的行车记录仪的存储空间。而其他冷热酸甜的感觉,动作的记忆,触觉记忆,恐怕也是按k/日计就能储存的。综上估算,人活一年的记忆恐怕也就百十来个GB,对于早年的记忆还有显然的衰减。因此复制成年人的记忆时,恐怕有几块移动硬盘就够用了。

回到刚才的假设情景,按这种推论,看到2的那个“你”会醒来,而且无比震惊,明明在麻醉前“我”就是左边那个人,现在我却是一个他的复制品,而且我知道我本来计划要在试验结束后“处理掉”这个复制品,现在竟然是轮到我要被处理掉。

如果你只是觉得这是一个技术伦理问题,而不是逻辑悖论的话,那么可以再细细想想这个过程。在睁眼之前,二者是一模一样的灵魂。睁眼之后,一个人看到1,一个人看到2,立即具有了不同的记忆,因此在此刻它们分裂成两个不同的灵魂。如果这都不荒谬,那么我们相当于在承认我们自己每时每刻都在经历灵魂的死亡与复生,因为每时每刻我们都在接受并记住新的信息,让我们不再是之前的那个灵魂。而如果你每年过生日时,都做一个灵魂记忆备份的话,那就根本不需要害怕死亡,至多是回退到过去的灵魂。比如我们发现舒马赫很难醒过来了,就把2013年1月备份那个舒马赫的灵魂重新唤醒,那个备份只是少了2013年当年的记忆而已,这样做是否有意义?那个躺在病床上的舒马赫我们就不去管他了?这种逻辑会颠覆对于“我”的定义,“我”变成了一种可以分叉的树型结构,而不是传统上的线性结构。

只要承认智能人造设备能够具有跟我们一样的生命灵魂,就必然会得出我们的灵魂也可以备份、复制、分叉这样荒谬的结果。因为人造设备上的信息是没有道理不能备份、复制、分叉的,承认设备和生命的对等,也就是暗示在先进技术条件下,生命灵魂也可以被备份、复制、分叉,而这是不能被我们常人的思考所接受的。

我的观点是,人的灵魂含有非信息化的成分,并不像设备的记忆比特那样,可以被完全复制、重建。设备的记忆、程序可以用比特来完全量化,因此是可以复制和重新启动的。而人的灵魂和记忆包含了感觉的成分,感觉是无法比特化的。机器设备可以知道温度低,可以在低温下像人类一样触发条件反射,但他们永远无法真实感受到“冷”。感觉,是一个明显游离于现代物理描述之外的自然现象,也许,感觉是通过调用连接外层世界的接口api来实现的。即使大脑中物理存储的信息比特被拷贝了,复制到另一个躯体上时,也是无法完整重启的,涉及到感觉的记忆都不能重建,因为另一躯体不拥有你的感觉接口,而记忆比特中调用你的感觉的段落,在复制体上是完全没有意义的乱码。

水平有限,这个问题可能有更好的思想试验予以证伪,而不像本文仅仅落到“不能从感性接受”上。如果生命真是如设备观描述的这样的话,而不需要超自然的外层世界就可以解释生命,那确实令人震惊!

发表评论

电子邮件地址不会被公开。