当前位置:首页  机器人

机器人

机器人的出现会影响我们对决策道德性的认识

2021-03-04 20:13:46

“智能机器的道德”是一个研究人们对人工智能做出的道德选择的态度的项目。在该项目下完成的最新研究中,研究参与者阅读了一些简短的叙述,其中包括一个机器人,一种名为iRobot的人形机器人,一个外观很强的人形机器人iClooney或一个人在手推车上遇到道德问题。困境,做出具体决定。还向参与者显示了这些特工的图像,之后他们评估了他们决定的道德性。该研究由简和阿托斯·埃科科基金会以及芬兰科学院资助。

手推车的困境是一个问题,一个人看到一辆手推车在轨道上轻抚,没有人控制,朝着五个人倾斜。该人什么都不做,或将手推车转到另一条轨道上,救了五个人,但在另一条轨道上杀死了另一个人。

对类人机器人的态度较消极。根据这项研究,人们认为类人机器人iRobot和iClooney做出的选择在道德上不如人与具有传统机器人外观的机器人做出的相同决定。赫尔辛基大学高级研究员,项目负责人,这项研究的首席研究员迈克尔·拉卡索(Michael Laakasuo)将这些发现与先前研究中已经确认的奇特谷效应联系起来。

“人工智能中的人类被认为是令人毛骨悚然的或令人毛骨悚然的,对这类机器人的态度比对更多机器类机器人的态度更为消极。这可能是由于例如对类人动物的反应困难:它是动物吗? ,是人还是工具?”

根据Laakasuo的说法,研究结果表明,人类并没有发现做出道德决定的机器人是一个奇怪的想法,因为人类和传统机器人做出的决定被视为同样可以接受。取而代之的是,机器人的外观在评估其道德性方面有所不同。

讨论指导AI的规范Laakasuo说,在我们的社会中,做出道德选择的智能机器的数量正在增长,以无人驾驶汽车为例。

“重要的是要知道人们如何看待智能机器以及哪些因素会影响相关的道德评估。例如,一辆时尚的自动驾驶汽车所犯下的交通违法行为与低级模型是否有所不同?”

这些知识可能会影响AI和机器人技术的发展方向,以及其他影响产品品牌的因素。知识还可以影响有关人工智能监管的政治讨论。例如,无人驾驶汽车可以成为私人公司的各种测试实验室:在发生事故的情况下,可以用金钱来应对后果,以科技进步的名义冒着后果主义的道德感冒着危害人类健康的风险。

“我们想拥有什么样的机器人:拯救五个人免于被手推车碾过,牺牲一个人的机器人,或者拒绝牺牲任何人的机器人,即使这意味着要挽救多人的生命。应该设计机器人吗?外观是否会影响人们的行为道德而看起来像人类?”

版权声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢您的支持与理解。