机器人学三定律(2)
《我,机器人》收入九个短篇机器人科幻小说。这些小说,彼此关联,是用三个人物贯穿。这三个人物是机器人工程师唐纳文、鲍威尔和机器人心理学家苏珊·卡尔文。故事常常是在一位名叫劳伦斯·罗伯逊的人于一九八二年创立的“美国机器人与机械人公司”这样的背景下展开。正是因为有共同的人物贯穿,使《我,机器人》中的九个短篇不是各自独立、互不相干,而是成为系列小说。
在阿西莫夫创作一系列机器人短篇科幻小说并提出“机器人学三大法则”时,世界上还没有机器人,当然也没有机器人学和机器人公司。一九五九年,美国英格伯格和德沃尔制造出世界上第一台工业机器人,宣告机器人从科学幻想变为现实。随着机器人技术的不断进步,随着机器人的用途日益广泛,阿西莫夫的“机器人学三大法则”越来越显示智者的光辉,以至有人称之为“机器人学的金科玉律”。
后来又出现了补充的“机器人零定律”:
第零定律:机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。
在《机器人与帝国》中,“机器人系列”前三部的主人公伊利亚·贝莱在临终前对机器人R·丹尼尔说道:“个别人的死亡是无所谓的。一个人生路,留下的工作后人会继承。从这个意义上来说,他没有死。只要人类存在一天,人类的事业就不会结束。每一个人的工作,结合成人类整体的一部分,因此,就成了整体的一部分。整体存在,他的那一部分也就存在。全人类的生命——过去的、现代的和将来的——汇成了永不停息的生命的长河,并将变得越来越壮丽。一个人的生命,只是这生命长河中的一滴水。”丹尼尔就是据此将第一定律扩展为第零定律。
为什么后来要定出这条“零定律”呢?打个比方,为了维持国家或者说世界的整体秩序,我们制定法律,必须要执行一些人的死刑。这种情况下,机器人该不该阻止死刑的执行呢?显然是不允许的,因为这样就破坏了我们维持的秩序,也就是伤害了人类的整体利益。“第零定律”的重要性在于地位凌驾其它三大定律,如若有个机器人为保护人类整体(维护第零定律),必须杀害一个人或一群人(抵触第一定律),机器人的正子程式为了人类整体着想就会同意谋杀罪行。
所以新的阿西莫夫的机器人定律为:
第零定律:机器人必须保护人类的整体利益不受伤害。
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。
第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。
第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。
三定律加上零定律,看来堪称完美,但是,“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,更不要说那些用0和1来想问题的机器人了。威尔·史密斯曾说:“《我,机器人》的中心概念是机器人没有问题,科技本身也不是问题,人类逻辑的极限才是真正的问题。”
阿西莫夫之后,人们不断提出对机器人三原则的补充、修正。
保加利亚科幻作家Lyuben Dilov1974年在小说《 Icaruss Way》中提出第四原则:
第四原则:机器人在任何情况下都必须确认自己是机器人。
1989年美国科幻作家Harry Harrison在《Foundations Friends》中又提出另一个第四原则:
第四原则:机器人必须进行繁殖,只要进行繁殖不违反第一原则、第二原则或者第三原则。
保加利亚科幻作家Nikola Kesarovski在《The Fifth Law of Robotics》(1983年)中又提出一个与Lyuben Dilov第四原则看似相似实则不同的第五原则:
第五原则:机器人必须知道自己是机器人。
这些补充的确有其发生的理由,但普遍存在的一个问题是补充本身的必要性和必然性。要知道,阿西莫夫三原则指出了机器人学的三个基本规范(或者“规律”),更具体的规范必须建立在这些基本规范的基础之上。怎样划分一个规范是具体规范还是基本规范?如果是基本规范,又怎样确定它在基本规范体系中的位置(为什么它是“第四”原则,而另一个又是“第五”原则?)?客观地说,前述几个“第四”、“第五“原则的内容并不能使自己成为第四原则、第五原则,既看不出它们何以成为原则,也看不出何以如此排序。这些原则的提出,多半是适应小说情节的需要,在小说中固然言之成理,但却不必过份拘泥。很显然,这几个补充原则的出发点是小说情节的需要,并不是机器人三原则本身的内容。而从三原则的内容出发对三原则加以补充、修改,这样的工作人们已经做过,并产生过很多严肃的讨论文章。