故事中出现的特工形象。从左到右:阿西莫,……
故事中出现的特工形象。从左到右:Asimo, iRobot, iClooney和一个人。
来源:本田的Asimo机器人(xcaballe (CC授权))。iRobot(索尼):二十世纪福克斯公司。iClooney(见Palomäki等人,2018年)。人类图像:Radboud人脸数据库。
大学:赫尔辛基大学

人们对机器人的出现有什么反应?

人工智能和机器人技术正在快速发展,在我们中间做出道德选择的自主智能机器的数量不断增加。在讨论人工智能和机器人发展的伦理问题时,有关人工智能和机器人的道德心理学知识很重要。

“智能机器的道德”是一个调查人们对道德选择的态度的项目人工智能.在该项目下完成的最新研究中,研究参与者阅读短篇叙述机器人这是一个有点像人的机器人,叫做iRobot,它有一个很像人的外形,叫做iClooney,或者是一个人,它遇到了一个道德问题,沿着电车困境,做出一个特定的决定。研究人员还向参与者展示了这些人的照片,然后让他们评估自己所做决定的道德性。这项研究由Jane and Aatos Erkko基金会和芬兰科学院资助。

电车困境指的是一个人看到电车在轨道上倾斜,没有人控制,朝向五个人。这个人要么什么都不做,要么让电车改道,救下5个人,但撞死另一个人。

对类人机器人的态度更加消极

根据这项研究,人们较少考虑类人机器人iRobot和iClooney所做的选择在伦理上听起来比人类和具有传统机器人外观的机器人做出的相同决定还要好。Michael Laakasuo,项目负责人和这项研究的首席研究员,将这些发现与恐怖谷效应联系在一起,这在之前的研究中已经被确认。

“人工智能中的人性被认为是怪异或令人毛骨悚然的,人们对这种机器人的态度比对更像机器的机器人的态度更消极。这可能是由于,例如,难以对类人生物做出反应:它是动物、人还是工具?”

Laakasuo表示,研究结果表明,人类并不认为机器人做出道德决定是一种奇怪的想法,因为人类和传统机器人做出的决定被视为同样可以接受。相反,机器人的外观会对评估他们的道德产生影响。

讨论指导人工智能的调控

拉卡索表示,在我们的社会中,做出道德选择的智能机器的数量正在增长,自动驾驶汽车就是一个例子。“了解人们如何看待智能机器,以及哪些因素会影响相关的道德评估,这很重要。例如,一辆时尚的自动驾驶汽车违反交通规则的行为与那些不那么经典的车型会有不同的感知吗?”

这些知识可以影响人工智能和机器人的发展方向,以及产品品牌。知识也可以影响有关人工智能监管的政治讨论。例如,自动驾驶汽车可以成为私营公司的各种测试实验室:在发生事故的情况下,可以用钱来处理后果,以技术进步的名义,诉诸结果主义道德,冒着人类健康的风险。

“我们希望拥有什么样的机器人:在被电车碾过的情况下拯救5个人,牺牲1个人,或者拒绝牺牲任何人,即使这意味着挽救几条生命?”如果机器人的外观会影响人们对其行为的道德感,那么它们是否应该被设计得像人类?”

订阅我们的时事通讯

相关文章

解决有关使用护理机器人的道德问题

解决有关使用护理机器人的道德问题

一项分析强调了应用程序和其他利用人工智能造福老年人的技术的现实利弊,包括那些面临痴呆症和认知衰退的人。

在人与机器人的关系中寻找道德共同点

在人与机器人的关系中寻找道德共同点

新南威尔士大学的研究人员说,利用道德规范来塑造更好的伴侣机器人的设计师最终也会创造出更好的人类。

机器人治疗师需要规则

机器人治疗师需要规则

利用机器人改善心理健康的许多举措已经存在。然而,在精神病学中使用具身人工智能引发了伦理问题。

机器人的手可以轻松地操纵物体

机器人的手可以轻松地操纵物体

一个系统可以重新定位超过2000个不同的物体,机器人的手可以向上和向下。

皮肤有助于发现触觉

皮肤有助于发现触觉

卡内基梅隆大学(Carnegie Mellon University)和元人工智能(Meta AI,前身为Facebook AI)希望提高机器人、可穿戴设备、智能服装和人工智能的触感。

教机器人像我们一样思考

教机器人像我们一样思考

储层物理计算的进步可能有助于创造像我们一样思考的人工智能机器。

人们对克隆人脸的情绪反应如何?

人们对克隆人脸的情绪反应如何?

研究人员研究了人们对克隆人脸的情绪反应,这可能很快会成为机器人技术的规范。

扩大制造领域的人机合作

扩大制造领域的人机合作

为了加强人与机器人的合作,拉夫堡大学的研究人员训练了一种人工智能来探测人类的意图。

双足机器人学习跑步

双足机器人学习跑步

机器人Cassie在53分钟内跑完了5公里,创造了历史。

受欢迎的文章

订阅简报
Baidu