我们来说说机器人三定律,以及为什么三定律不能救地球人

@Ent_evo:今天是阿西莫夫诞辰100周年,我们来说说机器人三定律,以及为什么三定律不能救地球人。

三定律:1 机器人不得伤害人或不作为而使人受害;2 机器人必须服从人的命令,除非与1冲突;3 机器人必须保护自身,除非与1或2冲突。

虽说翻译成定律,其实只是小说里机器人软件底层的指令,设定为无法修改无法忽视而已,并不是物理意义上的定律。所以现实中的机器人和AI当然是不遵守的。很难想象要怎么把这些定律编写成谁都改不了、出故障都不会变的底层规则。但就算能实现,它也救不了我们。

首先,三定律自己连“人”和“机器”的定义都没有明确给出……阿西莫夫笔下的索拉利亚人就给他们的机器人规定“只有带索拉利亚口音的才是人”。

当然可以加入补充定义,但作为机器人要怎么实施判断呢?它从哪里获得对方是不是人的信息?如果出现了伪装很好的仿生人,或者必须在没有信息的时候做判断,怎么办呢?阿西莫夫本人就想到过一个漏洞:一艘符合三定律的无人飞船很可能会把载人飞船炸掉,因为它自己是无人的,所以人类可以故意误导它,让它以为对方也不载人。

设计一个注定自相对抗的规则体系也是挺奇怪的。早期作品中一个机器人因为陷入了第二定律和第三定律的冲突而掉进了死循环,后来的设定里如果出现了不可调和的冲突则机器人会自毁——但冲突是非常常见的现象,而且是一个连续谱。如果一个行为100%会伤人,那当然适用于第一定律。那50%呢?1%呢?0.001%呢?无法精确计算概率呢?在知道交通事故风险存在的情况下,机器人会遵循“开车送我去上班”这个命令吗?命令者的语气和命令的急迫程度会产生影响吗?这些全都是现实中极其常见、三定律又无法解决的问题。

这就显示出三定律的根本问题了。它作为一个伦理体系,义务论的那一半极度简化到了荒谬的程度,而后果论的那一半却又要求它的主体全知全能。现实中的AI伦理学家基本都不看好它,哪怕作为基础也是不怎么合格的。

阿西莫夫选择用三定律来限制他的故事,是为了摆脱弗兰肯斯坦怪兽的阴影。20世纪40年代之前的科幻机器人基本上都是怪物,没有人类控制就会大开杀戒。但是,他也不很喜欢怪兽故事的反面——机器人获得自我意识、完全独立的故事。如果机器人变成了人,那它的故事就是人的故事,这当然可以是好故事,阿西莫夫自己也写过几篇,但人类文学一直就是在写人的故事,实在没什么新意。(《底特律变人》里有一丝一毫的新东西吗?)他更感兴趣的,不是怪兽的故事也不是人的故事,而是工具的故事:机器人如何作为工具被设计,又如何发生意想不到的故障而无法实现原定的目标。

三定律对设计AI没什么用途,但如今通用AI遥遥无期,阿西莫夫的这个工具思路,说不定反倒更加适用于我们现在对技术的讨论。

未经允许不得转载:博海拾贝 » 我们来说说机器人三定律,以及为什么三定律不能救地球人