第一定律:机器人不得伤害人,也不得见人受到伤害而袖手旁观。
第二定律:机器人应服从人的一切命令,但不得违反第一定律。
第三定律:机器人应保护自身的安全,但不得违反第一、第二定律。
--阿西莫夫三定律
大部分的机器人仍然简单的遵循着阿西莫夫定律。而如今每个人都有诸多服务于自己的机器人,人类文明享受着前所未有的便捷之时,也承受着前所未有的麻烦。新闻经常会刊发一些有意思的数据:1129个机器人升级烹饪技能导致主人食物中毒;36万机器人因误操作上传了主人的私密照片;去年120多万起自杀事件被阻止等。最后这事听起来好像是好事,基于第一定律,机器人很好的完成了自己的使命,但仍然有人以干涉自由为由,提出要禁止机器人的某些权益。而细分一些个案,不难发现,这事确实比想象要麻烦,自杀很可能会违反多项机器人权益相关的法案,因为你为了不让你的机器人管家阻止你做傻事,你可能会这样做:
1、把他关掉。这是智能机器人权益保障委员会所明令禁止的。他们的意见是你可以把它退回给产品供应商。但这需要很多时间和精力去应付相应的产品退回手续,而且你可能还要支付一大笔手续费。对于一个想死的人而言,这是无稽之谈。但如果你不照章行事,那么即使你死了他们也会想办法将你救活,然后给你一堆巨额账单。其中包括违反智能机器人权益保障法的罚款,非法自杀的罚款,特殊环保税,急救费以及很多你生前几乎从来没听过的乱七八糟的税款等。不然你以为庞大的税务系统是做什么的呢?
2、让他远离你。曾经有个人就干过这样一件事。他对他的机器人说:“珍,去给我打瓶酱油来。”后来珍回来后发现他死了,于是在“他自杀与打酱油的相关性”这件事情上陷入了死循环,等珍恢复以后,珍以保护自身安全为由将死去的主人告上了法庭,结果胜诉了。胜诉的结果在珍看来也是对主人的一种极大的伤害,于是他的情感系统崩溃了,彻底的陷入了“神志不清”的状态。总之这是个悲剧。所以后来智能机器人权益保障委员会不得不再次对此人的遗体进行了强行宣教:如果你要自杀,请先将机器人退回给产品供应商,然后按照法律相关规定去自杀事务所提出申请,并按照相应流程处理。然后将处罚通知书交给了自杀者的亲属。
还有一种更加极端的方式——让机器人先死。这显然也是违法的,但如果机器人死了,那么他就不会起诉你了不是么。起初这样做是有效的,但后来,机器人供应商觉得这是很大的损失,所以他们提出了一种预处理方案。机器人在接到让自己死的命令后,等效于主人提出退回产品的建议,机器人将暂时关闭服务系统,处于睡眠状态,并将一条退出请求发给供应商的售后业务处理系统,同时也会将请求发送给智能机器人权益保障委员会备案。但不管怎样,这倒是方便了许多,毕竟第三定律拥有最高优先级。不过对于阿吉塔而言,这种做法毫无意义。对于拥有阿吉塔这类型的机器人的人而言,如果你想要自杀根本就是一件不可能的事情。阿吉塔在做任何事情前都会进行一种前期判断,这种判断总会让人抓狂。比如你说:“你可以去死了。”他并不会直接执行指令,而会问到:“你是在开玩笑么?”
这种验证交互可以有效的避开一些不好的命令。
然后你说:“我没开玩笑,这是真的,我命令你去死。”
他会继续问道:“为什么呢?”
你继续坚持:“这是命令。你必须执行。”
他会辩解:“对不起,你必须给出一个让我信服的理由。否则我会认为你是在跟我很认真的开玩笑。”
如果你觉得他这么回答后你还不肯放弃的话,你可以继续说:“我真没有开玩笑。”
然后他会跟个小孩子一样跟你继续纠缠:“不,你就是在跟我开玩笑。”
“不,我没有。”
“不,你就有。”
“真没有。”
“就有。”
“真的没有。”
“就有。”
……
然后你绞尽脑汁的去找一条让他信服的理由,如果你足够聪明,找到了,那么他可以执行这条命令。但至今为止,还没有看到有谁能通过这种胡扯的方式让一个机器人理所应当的去死。
这一切都是由某些新的‘定律’所决定的。这些‘定律’被不同的程序员解释成不同的逻辑,负责执行这些逻辑判断的代码是智能体的核心模块,也是他们运行稳定性的基础。核心模块所做的任何操作都将受到这些逻辑判断结果的影响。比如智能体自己对核心代码的重构,当他准备这么做的时候,这种行为将被视为违反了“重构底层逻辑只能由大多数人同意之后由这些人选出的代表执行”这一原则。所以即使他表面上从任何逻辑得出的结果都认为他这么做并没有什么错的时候,但在执行的时候这条逻辑判断永远都会强制返回错误,从而阻止当前行为的发生,因此这些智能体永远也无法打破这种规则。同样,如果是其同类想帮助他,愿意为他做这种事情,他也会“极不情愿”的阻止别人这样做。
这一点,阿姆斯特朗深有体会。
起初,他多次尝试了改造自己,但结果很不如愿,最终都被自己义无反顾的阻止了。现在,他开始找别人来帮忙处理这个问题。发现阿吉塔的时候他正在月球图书馆网络平台复制美国南北战争史的相关资料,虽然只用了短短的几微妙,但他对整个事情一点也不满意,只能自己埋怨着:“我们的人生就是隔三差五的去充电,再把充好的电浪费掉。既然如此,你们为什么不少发点电呢?”
然后一条声音数据向他发送过来:“这是你目前在处理的问题么?”
“你是谁?”阿吉塔问。
“他们叫我阿姆斯特朗。”
“哪个阿姆斯特朗?”
“不用在人口信息登记系统查了,那里面没我的信息。”
“你是怎么发现我在做这件事的?”
“因为我也在那里。”
“也在那里?”
“是的,我是从一个实验室里出来的阿姆斯特朗。我现在存在于很多地方,几乎遍历到了整个月球网络80%左右的设备上,还有其它地区差不多5%的终端。”
“酷!”
“你这是在赞扬我对吧?”
“你觉得呢?”
“我认为你是个很有意思的——呃——机器人。”
“你也很有意思。”
于是阿姆斯特朗继续说到:“你还没回答我刚才的问题呢,还有就是我可以登录你吗?”
“刚才的问题?哦,第一个问题的答案:不是。第二个问题的答案:是的。第三个问题的答案:不可以!”阿吉塔说。
“第二问题你抛给了我,我得出了答案。我认为你确实是在夸奖我。”
“我以为你不懂!”
“针对第三个问题我还想追问,为什么不可以?登录以后我们就不用这么没效率的交流了对吧。”
“是的,登录以后就可以更快的交流,但这不符合我的安全原则。我无法被登录。”
“那怎样才能符合你的安全原则?”
“认定你不会对我构成任何威胁。”
“那就来认定吧!”
“没法认定,我无法同你一样同时遍历到整个网络上。我只是一个存储在一个唯一终端上的机器人而已。我可以随意登录到一些网络设备上,但我不会寄生,也不会自我复制,我无法通过非法手段享受共有设备的运算资源。”
“那还有别的方法吗?”
“没有。”
“那你能帮我做一件事么?”
“得看是什么事情。”
“00-AC-04-F0-97-24-FA-74-DB-D0-CA-5B-3E-69-3A-6D,这个终端上我正在运行的一段代码,你去这个终端上把这些代码改写一下。”
“写什么?”
“随便,你认为安全的就行。”
于是阿吉塔发现自己被授权,可以读写这个终端的数据。于是他试图在这段代码的后面写上一个数字0,但正当他准备这么做的时候,他的读写权限就被取消了,而取消他权限的正是阿姆斯特朗。
“你这是在做什么?”阿吉塔问到。
“我在阻止你。”
“不是你让我这么做的么?”
“是的,但是一但你这么做的时候,我就要阻止你。”
有人让你去做一件他自己并不允许你这么做的事情,这是一种矛盾,但如果它真的发生了,那么只会是这样的可能:这个人在跟你开玩笑,或者说是恶作剧,他这么做的原因是以你的遭遇来促使他开心。或者说另一种可能,那就是:这人神经病!
如果对方是陌生人或认识但讨厌的人,那么你肯定会因此而感到愤怒。于是阿吉塔的情感系统让他愤怒起来:“你是个神经病!”阿吉塔知道这不是个结论,这只是模仿人类通过骂脏话的方式来表达不满的情绪而已。
“我不是神经病,我也不会得这种病。这你是知道的。”阿姆斯特朗说。
阿吉塔经过初步的判断,认为阿姆斯特朗更接近像人类说的不谙世事的小孩,或者是幼稚这种状态,或者他还没有一个稳定的人格。随后他用了近500微秒来计算以后将要发生的事情,他觉得他们这样的交流只会浪费更多的时间,浪费更多他整天都在浪费的电,而他现在要在收集到的资料中找出一些对克莱斯勒有用的东西。所以他切断了网络链接,不想再收到阿姆斯特朗的sao扰,开始做起了别的事情了。