<
 
 
 
 
×
>
You are viewing an archived web page, collected at the request of United Nations Educational, Scientific and Cultural Organization (UNESCO) using Archive-It. This page was captured on 08:30:55 Jul 06, 2018, and is part of the UNESCO collection. The information on this web page may be out of date. See All versions of this archived page.
Loading media information hide
 » 联合国教科文组织科学专家探讨机器人权利
19.09.2016 - Social and Human Sciences Sector

联合国教科文组织科学专家探讨机器人权利

© Shutterstock.com / Willyam Bradberry

一个科学和技术伦理专家顾问小组开始探讨机器人成为“有道德的机器”的可能性,以及——如果它们能发展出情绪感知和分辨对错的能力——赋予他们法律权利的潜在可能。

“展望这一研究领域的未来进展,不能排除未来机器人拥有感知情绪,以及相应道德状况的可能性,” 联合国教科文组织的顾问机构世界科学知识和技术伦理委员会(COMEST)新兴技术研究的一个工作小组在本月发布的一个初步草案中这样说。

从19世纪50年代汽车制造业使用第一个工业机器人以来,它们已经成为现代生活的一个事实存在。机器人在工厂、战场、医药、养老和自闭症儿童治疗等领域都有使用。通过从星球大战到终结者等科幻小说、电影和电视的推广,机器人已经越来越多的为人所熟知。

COMEST机器人伦理报告初步草案”审视了与使用自动机器人以及人类与机器人互动的相关伦理问题。报告指出快速发展的高度智能自动机器人很可能会挑战我们现有的根据道德状况来划分存在物的标准,其深远影响堪比甚或超过动物权利运动。

机器人的行为即便再复杂、再智能、再自动化,仍然是由人类决定的。然而,设想未来机器人可能会变得更加高级(可能达到能通过经验学习,设定自我的程度),报告认为它们规则系统——一组关于机器人如何运行的精确指示—的性质很可能就会成为值得“认真考虑和反思的伦理问题”。

虽然大多数“机器伦理”领域的专家都认为机器人还远未达到能成为像人类一样的“道德机体”,但仍有预测认为机器人未来可能会习得诸如幽默感之类的人类特征。

由于科幻小说的普及,目前风靡的观点是,机器人是一种看起来像人类、能像人类一般思考而且像人类一样行动的机器。但是实际上机器人并不一定要外形像人。它们可以只是做日常、重复和有风险的机械工作的智能机器。

报告认为“机器人的自主性很可能会发展到有必要对其进行伦理制约的程度,可以通过将专门的伦理代码编程到系统中来防止它们作出危害性行为(如威胁人类和环境)”。

报告指出考虑到当代机器人的复杂性,当机器人功能紊乱而伤害到人类的情况出现时,谁应该承担伦理和法律责任的问题就凸现出来。机器人依然没有受到充分的伦理和法律管束,可能是因为这是一个相对较新且快速变化着的研究领域,其对现实世界的影响常常难以预估。

“今天复杂的机器人一旦功能紊乱,很有可能会对大批人造成巨大伤害(比如军用机器人或自动驾驶汽车失控),” 报告说,“因而,问题不仅是机器人学家应该尊重特定的伦理规范,而是是否需要将特定伦理规范编程到机器人自身的系统中去。”

联合国教科文组织在全球推广科学伦理方面担当领军角色:科学应该让所有人分享到发展的益处,使地球免于生态崩溃,为和平合作打下坚实基础。

 

***

●      下载报告初步草案

●      关于报告的常见问题

 

联系

国际生物伦理委员会(IBC)-- 政府间生物伦理委员会(IGBC) -- COMEST 秘书处

电子邮件:ibc(at)unesco.org / comest(at)nesco.org

 




<- Back to: 所有新闻
页首