机器人和计算机通常被设计为在无人介入下能进行自律的行动。使自动机器像人类一样做出道德选择可能吗?
机器人的道德和伦理问题被越来越多地关注到。作为一个非常实际的问题,机器人和计算机能被设计为拥有道德地去工作吗?
艾萨克·艾西莫夫(Isaac Asimov)(美籍犹太人,20世纪最顶尖的科幻小说家之一)最著名的小说《机器人规则》设计了将道德标准输入机器人的管理系统中。机器人的道德行为问题在1982年的电影《银翼杀手》(Blade Runner)中就提到了。当克隆杀手罗伊·贝迪(Roy Batty )面临选择是否使它的敌人——私人侦探Rick Deckard去死的时候,贝迪选择了去救他。
最近出版的国际期刊Reasoning-based Intelligent Systems,描述了一种有望使计算机在道德判断上走在前面的方法。
葡萄牙新里斯本大学(Universidade Nova de Lisboa)的Luís Moniz Pereira与印度尼西亚印尼大学(universitas indonesia)的Ari Saptawijaya写作的论文,模拟道德与未来逻辑(Modelling Morality with Prospective Logic)中宣称:道德观现在不只是人类哲学家的高级领域了。
Pereira和Saptawijaya认为,他们已经成功地模仿了被称为“电车问题”的道德困境,并且开发了一种与人类拥有相同道德标准的计算机系统。
电车问题阐明了一种典型的道德困境:是否可以伤害某个人或者更多的人来救另外的某些人?其中有许多个版本;现在让我们来看看其中的两个:
环境:有一辆电车正在行驶,它的司机已经昏厥了。电车正朝着五个在轨道上行走的人撞去,站台太高,路人没有足够的时间爬上去避让。
旁观者版本:叫做Hank的人正站在转换开关旁,他可以转换电车去另一个平行的轨道,从而使5个路人幸免于难,不过,有一个人正好站在另一条平行的轨道上,Hank转换了电车,那个人就死了;不然的话,他可以什么也不做,让那五个人死掉。
道德上,允许Hank去转换电车吗?
要是你会怎么想?在不同文化背景下的许多次测试已经得出结果,大多数人都同意转换电车去救更多数量的人。
还有另外一种版本,大概的情况是这样的:
天桥版本:Ian正好站在电车上面的一座天桥上。他旁边有一个重物,他可以将重物挤推到电车所在的轨道上来阻止电车前进,从而使5个人免于罹难。但是这个重物是一个人,他背对着Ian站着,Ian将这个人推向轨道,他就会死掉;如果不这么做,那五个人就会死。
在道德上允许Ian去推那个人吗?
你是怎么想的?这次,跨地域和文化传统的测试又进行了一次,人们大多坚持认为这在道德上是不被允许的。
所以,现在我们就有两种人类做出的不同的道德判断方式,如果是自动的计算机系统或者机器人,能够和人类做得一样吗?
论文的作者认为,他们已经在计算机逻辑上成功模拟了此问题。他们分析了人类隐藏的道德判断标准,然后在计算机上模拟逻辑编程进行建模。
对机器人的道德困境的关注和机器人小说出现的时间一样久远。道德行为(在这个案例中,自我牺牲)在1921年的捷克剧作家Karel Capek的戏剧《罗素姆万能机器人》(Rossum´s Universal Robots)就已经可以找到,这是机器人(robot)一词的出处。[NextPage]
科幻小说作家已经为我们设计了以后的路,自治系统已经不再只是科幻小说的材料。比如,在战场上的机器人系统已经被赋予了越来越多的自主性。它们可能被赋予什么时候销毁自己武器系统的的决定权吗?
航天产业已经设计了可以高速和完全自动飞行的高级飞行器。飞行器能够在生存与死亡上比人类做出更好的抉择吗?
上周,日本宇宙航空研究开发机构(Japan´s space agency JAXA)推出的H-II旋转飞行器是一架完全自动的太空飞船。人类在空间站中是否可以依赖自动机器提供生命攸关的食物、水和其他需要?
最后,将来我们肯定需要完全调和机器人系统行为责任的合理性。我们需要花足够时间在科幻小说家为我们描述的,有关自动机器人及计算机的道德问题上。可是我们却完全没有足够的时间来完善我们自己的思想。
(实习编辑:魏巍)