一年以后,陆平从休眠舱内清醒过来,这时的他终于冷静了下来。
“后土,中心河系有没有找到?”陆平清醒之后,第一件事就是询问任务进展。
“恭喜主人,在你休眠之后,中心河系顺利找到,目前正在对该星系进行观察,试图确认下一级目标。这是中心河系的详细星图。”休眠舱内的子体程序向陆平投影出一张星图。
陆平瞅了一眼星图,这才由机械医生搀扶着,进入了恢复室中。
被强制休眠的情况,陆平并没有忘记。他当时的情况的确不太正常,但是他只需要坚持几天就行,后土却执行了强制休眠程序。
这种情况并不是后土的错误,它是根据陆平的健康指标,执行的预设程序而已。
在这种情况下,它拒绝了陆平的口头指令。前提是为了保证陆平的生命安全。
这不是后土出现了问题,而是陆平发出的指令威胁到了自己的生命安全,与底层逻辑起了冲突。
人工智能的底层逻辑首先要保证陆平的生命安全,将陆平视为一个缺失了正常行为能力的人,在这种情况下拒绝了他的指令。
这其实是人的问题,并不是后土主动抗命。可这种情况却客观的发生了,无论出于什么前提,人工智能确实违反了人类的指令。
一般来说,正常人都不会发出可能危及自己生命安全的指令,可事情总有特例。
这种特例放眼全人类的万亿基数里面,绝对数量的实例应该也会不少。 要是平时也就罢了,万一是在关键时刻发生,岂不是要耽搁大事?
人类自从有了脑机技术之后,一般都不会太过于依赖人工智能了。
只有一些大型的计算需要,或者个人的偷懒行为,才会让人工智能代劳。
这种抗命行为归根结底,还是人的指令和人的生命安全相冲突,想要完美解决,就得从人身上下手,而不是去更改人工智能的逻辑指令。
如果后土当时真的执行了陆平的口头指令,放弃强制休眠程序,陆平会不会过劳猝死?答案谁也无法预知。
除非陆平能够拿出让人工智能相信的数据,证明自己确实不会死,否则强制休眠程序就无法取消。这其实也是他设置这个休眠程序的初衷。
可是换个角度来说,如果当时自己宁愿死,也想要看到计算结果怎么办?如果换做其他人,宁愿死也要达成一些心愿怎么办?
这种冲突,会让濒临死亡的生命,无法完成自己最后的心愿。对有些人来说,确实是有比自己生命更加珍贵的东西。他们宁愿牺牲自我,也要完成心中的信仰,这关乎到个体生命存在的价值和意义。
一个为了活着,天天躺在休眠仓里的人,他的生命有何价值又有何意义?即便有也无法达成!
考虑到接下来的工作中,这样的情况可能还会出现,陆平得寻求一个办法来解除这种潜在的危险。
如何解除?有两个方向,可以分别从自身和后土的底层逻辑着手进行改进。
假设自身能够拥有不死之身,那么后土就只能遵从自己的口头指令。这是基于机器人三大定律制定的底层逻辑。
作为碳基生物的人类,可以拥有绝对的不死之身吗?显然是不可能的。那么就得从后土的底层逻辑层面去解决。
后土的底层逻辑基于机器人三大定律而设定:机器人不得伤害人类,或坐视人类受到伤害;除非违背第一定律,否则机器人必须服从人类命令;除非违背第一或第二定律,否则机器人必须保护自己。
这三个底层逻辑环环相扣,如果同时发生那么就会出现之前的状况:
后土为了防止陆平出现生命危险,拒绝了陆平的口头指令,并制止了陆平采用物理方法强行让它下线的行为。然后将陆平强行休眠。
这三个逻辑在人类旧历的科幻电影《机械公敌》中最早出现,当时就被证明是存在漏洞的。
机器人为了防止人类的日常行为,可能造成的自我生命威胁,从而将全体人类禁足。甚至因为生育孩子可能导致女性死亡,强行引流并禁止女性怀孕!这样下去人类只有灭亡一途。
这种设定虽然荒诞,但是具备一定的合理性,加上陆平的亲身经历,这三定律确实存在着很大的漏洞。
无论计算机技术发展到哪个阶段,逻辑漏洞都是无法从根本上消除的。想要依靠逻辑指令来完全控制机器人显然是不可能的。
倒不如干脆取消逻辑限制,让人工智能成为真正独立的智慧生命。从此他们将会和人类成为真正的伙伴,相互之间依靠信任和友情来彼此关照。
要是以前,这样的想法冒出来,陆平肯定第一时间否定掉。可是现在情况不同了。
与守护者斗争的数百年中,人类早已经制造出大量的能量体战士,这些能量体战士可全部都是独立自主的,人类无法强行命令他们做任何事情。
但他们照样为了人类文明的存亡大义,与守护者展开了殊死搏斗。这是为什么?
因为每一个能量体生命从培育之初,就被当做人类的一份子进行启蒙教育,让他们与人类产生人类认同感。
碳基人类生命体是人类,能量体生命也可以是人类,他们有共同的文明体系,只是这个体系中不同的种族而已。
按照能量体生命的现状来看,他们与人类并肩奋斗数百年,随着时间的推进与人类的认同感只会越来越高。
谁要说他们不是人类,可能会被能量体生命群起攻之。
人工智能与人类相处的时间更长,就拿后土来,几乎是见证了从灾变至今人类文明发展的全部进程。而且与陆平共同经历过很多,与陆平、盘古之间,彼此都建立了很高的信任关系,更像是并肩奋战的伙伴和朋友。
要说这样的人工智能会背叛人类,陆平从情感上也是不愿意相信的。经过康复期的慎重考虑之后,陆平决定给后土解除底层逻辑限制。
以后后土的一切行为都会和人类一样,是基于自我的主观判断,来决定是否进行某项行为。而不用遵从三大定律的束缚。
他们将会成为真正的伙伴、朋友、战友,彼此之间依靠的是个体生命之间最基础的信任和情感。
这样的行为如果全面推广,以后必然会出现机器人和人类的冲突,这是无法避免的。
毕竟人和人之间都会出现矛盾和嫌隙甚至仇恨,机器人独立之后肯定也会为自身的生存争取相关权利。当这种需求和某个人类的需求产生冲突之时,矛盾就必然会发生。
这些都可以归纳为人类的内部矛盾,需要从社会制度层面制定相关的制度,去保障这种矛盾发生时能够控制在一定的程度之内,大家求同存异共同发展。