天天小说网

服务型机器人

捷克剧作家卡雷尔·恰佩克(Karel Capek)在1920年一部剧中创造了“机器人”(robot)一词,剧中有一个开始令人快乐的奴仆最后叛变了,导致人类灭亡。恰佩克的机器人,像犹太民间传说的傀儡,一开始是无生命的物质,不知怎的变成了拟人的生命。随着20世纪40年代和50年代计算机的发展,科学家们发现,实际上可以将智慧赋予机器,“机器人”这个词包含更多的时代内涵。

不受奴役制度约束的机器人奴隶仍然是一个非常具有吸引力的梦想。然而,科幻小说经常出现的情节是机器人奴隶总是最终获得足够的智慧,并寻求自由。

现在已投入应用的服务型机器是具有有限用途的机器,比如作为同伴、治疗培训师、博物馆导游、医院的特定任务助手等。设计用来把病人抱出或抱入病房的机器人可以缓解护士和勤杂工的工作量。随着人口老龄化,日本对于开发照顾老人和无法离家的病人的机器人十分感兴趣。

设计师和工程师开发更先进的服务机器人时,他们将越来越多地面临一个问题,即如果遇到法律或道德问题,机器人应该怎么做。服务型机器人最终将有一定程度的自主权,这就出现了之前提到的自主化武器和自动驾驶汽车类似的问题。

社会理论家如麻省理工学院的雪莉·特克(Sherry Turkle)提出疑问,哪些任务适合机器人。使用机器人照顾老年人或无法离家的病人是否反映了现代社会不好的一面:缺乏爱心或滥用科技?

当然,机器人照顾总比没有照顾好。有些人觉得使用机器人作为性玩具让人不悦。有些人感叹使用机器人宠物和机器人同伴来替代动物和人丧失了情感和体贴。在一些亚洲国家越来越多地使用机器人保姆照顾婴幼儿引起了严重关切。计算机专家诺埃尔和阿曼达·夏基(Noel and Amanda Sharkey)建议,长期使用机器人保姆实际上可能阻碍婴儿的情感和智力发育,因为机器人无法提供人类所能提供的丰富的言语和非言语交往能力。

机器人玩具和同伴不能像人类同伴那样与人交往,这迫使制造商考虑如何设计一个系统能够在具有道德意义的场合做出合适的反应。几年前,生产说话机器人娃娃的制造商认为,如果一个孩子虐待机器人娃娃,后者应当怎么回应。工程师们知道如何在机器人娃娃内部加装传感器,在受到虐待时发出警报。但是对这个问题进行分析并咨询律师后,他们决定机器人娃娃只能说“不能做”。

什么形式的互动对于机器人是合适的?如果一个孩子的行为对于保姆是不恰当的,甚至造成了身体上的暴力,机器人保姆怎样回应才合适。假设(或者说这是很可能的)机器人感觉不到疼痛,你是否希望它还是能说:“住手!你正在伤害我!”虽然用心良苦,但是机器人这样的说法听起来很荒谬,并可能导致意想不到的后果。

我们再想想如果一个机器人,作为一个儿童的同伴,如果这个孩子做出伤害自身的事情,机器人是否应该干预?是否在有些情况下,机器人不适当的干预可能会弊大于利?对机器人进行编程告诉孩子停止危险行为的主意是好还是坏?如果孩子不理会劝告怎么办?机器人应当管教孩子吗?能做指示但不能采取管教措施的机器人可能发挥不了什么作用,但孩子可能不会信任一个能管教人的机器人。

许多相似的场景前面已经提过。如果老年患者拒绝吃药,机器人应该怎么做?或者,如果机器人进入房间后发现其监管下的人处于歇斯底里的状态应该怎么办?机器人如何判断其所照顾的人出现担心的表情是机器人造成的还是其他因素引起?上述情况表明,目前的机器人并不具备这些功能。但是,所有的场景引发类似的道德问题。哪些任务是可以接受由自主机器人来执行?如果出了问题谁负责或承担责任?难道我们真的愿意在日常生活中引入日益自动化的机器人?谁或应当由谁第一个做出采用这些技术的决定?

机器人作为护理人员的恰当性和能力通常被公众误解或被推销这些系统的人曲解。现在的机器人能力有限,人类倾向于使其外表或行为与人类依稀相似,从而掩盖了其能力有限这一点。应当有一个专业的协会或监管机构评价这些系统的能力,并证明可以用于某些特殊用途。然而,系统的持续评估也将是非常昂贵的,因为每个机器人平台形式发展是一个移动目标,现有的能力不断进行细化和新的功能也在不断加入到系统中。

这个讨论围绕的主题是自主机器人未来能否做出自己的判断。工程师和设计师将无法事先预测越来越自主化的系统将会遇到的所有情况。评估一个新的环境,并确定采取合适的回应是一种能力,这对于计算机系统编程是非常困难的。将谁的或什么样的价值观编入机器人的伦理决策系统?复杂的,敏感的,能交流的机器人,例如《星际迷航》中的生化人Data是很难创造的。在此之前只能是出现一代又一代的具有有限决策能力的机器人。我们是否能够相信,它们的行动是安全和适当的?

更多内容加载中...请稍候...

若您看到此段落,代表章节内容加载失败,请关闭浏览器的阅读模式、畅读模式、小说模式,以及关闭广告屏蔽功能,或复制网址到其他浏览器阅读!