天天小说网

道德机器

《道德机器:教机器人明辨是非》一书中,科林·艾伦和我绘制了一个新的调查领域,即机器伦理或机器道德。这一领域了探讨发展能够在选择和行动中考虑到道德因素的计算机和机器人的前景。机器伦理提供了一个更好的范例,如何将价值因素放入技术工程中,以确保他们的行动是安全和适当的。

工程师们已经将价值观和道德行为编入计算机和机器人程序中(以下统称为“机器人”)。工程师提前确定在严格限制的背景下机器人遇到的问题。然后,他们对系统进行编程,以适应各种情况。科林·艾伦和我称这种道德行为为操作性道德。

然而,设计者无法预知日益自主的机器人所面临的各种新选择。在意料之外的紧急关头,机器人将需要应用自己的道德子程序来评估各种行动方案。例如,一个服务机器人可能需要决定是否之前或之后执行一系列任务,如递送药物或新闻报纸给它协助的人后再充电。或许这些任务要排出优先级,优先级根据每天的时间、个人身体健康,或其他因素而有所变化。能够做出伦理决策的机器人是功能性道德,即使它们所执行的任务很少或没有实际理解。最终,机器人可以学会调整自己的行为和价值观与人靠拢,进步到浩如烟海的挑战采用适当的规则和原则。

机器道德有关的研究要回答一些基本问题。我们是否需要能做道德决定的机器人?什么时候?为了什么?难道我们希望机器人做道德的决定?再有就是老问题,应该执行谁的还有什么样的道德?从理论上讲,任何一种道德原则都可以被编程到一个机器人中,不同的环境适用不同的价值体系。最后,就是道德能力这种东西是否可以真的实现编入计算机设备?从应用伦理学和工程学的角度看,大量的注意力冲着这后一个问题。机器人可以被设计,使他们遵守规则,如十诫或武装冲突法?或者机器人可以按程序办事,如计算哪一种行动方案最能代表了最大群体的最大利益?

构建道德机器的挑战使得科幻小说读者马上会想到艾萨克·阿西莫夫(Isaac Asimov)的(1920年至1992年)《机器人三定律》。在科幻小说和故事集中,阿西莫夫提出了应当将下面的原则编入机器人程序之中:

1.机器人不得伤害人类,或通过不采取行动,让人类帮忙。

2.机器人必须服从人类的命令,除非该命令会与第一条抵触。

3.机器人必须保护自己的存在,不与第一或第二条抵触。

后来,他加入了第零定律:机器人不得伤害人类,或让人类受到伤害。

这三条定律非常直接,并分级排列。尽管如此,在讲完一个个故事之后,阿西莫夫说明了按照这些简单的定律设计机器人是多么困难。例如,只用这三个定律编程的机器人面对两个不同的人相互矛盾的命令时就已经不知道该怎么办了。通过他的故事,阿西莫夫说明了一个简单的,以规则为基础的道德观是远远不足以确保智能机按照道德上适当的方式行事。

探讨如何实施相应的规范、原则或程序做出道德判断时,也会碰到类似的难题。此外,有意开发道德机器的工程师还面临第二类很困难的问题。这类问题意味着机器人对伦理困境的理解。例如,机器人如何认定这是在道德上很重要的情况?它如何辨别自己掌握的哪些信息是做出判断必不可少的,哪些是不重要的,以及它是否有足够的信息做出判断?它需要什么样的能力获得它所需要的其他信息?它是否需要获得人同情的能力以便在某些情况下能采取适当行动?同情这种能力是否也可以内置到机器中?

小规模的初步拨款为研究人员研究机器人实施道德决策的方法奠定了基础。2014年5月,美国海军研究办公室为塔夫茨大学、RPI以及布朗大学的研究人员拨付了750万美元的一大笔资金,以探索研制能够分辨是否善恶的机器人。如果机器人可以被设计为遵守法律和符合道德要求的话,那么新的市场将被打开。在另一方面,如果企业和学术界的工程师不能设计出遵循法律,对人的价值敏感的机器人,消费者将不会相信他们的行动,并要求各国政府对如何使用机器人施加限制。

更多内容加载中...请稍候...

若您看到此段落,代表章节内容加载失败,请关闭浏览器的阅读模式、畅读模式、小说模式,以及关闭广告屏蔽功能,或复制网址到其他浏览器阅读!