<
 
 
 
 
×
>
You are viewing an archived web page, collected at the request of United Nations Educational, Scientific and Cultural Organization (UNESCO) using Archive-It. This page was captured on 15:19:02 Nov 19, 2019, and is part of the UNESCO collection. The information on this web page may be out of date. See All versions of this archived page.
Loading media information hide

于人之思想中构建和平

广角

人工智能的道德风险

人工智能会被用来强化现有的歧视性措施,例如种族特征分析、行为预测、甚至于性取向的判定。因此,有必要就由此引发的道德伦理问题颁布相关法律,确保人们以负责任的方式开发人工智能。

马克-安托万·迪拉克;雷吉斯·梅朗 担任采访

 

基于摄影图像的行为分析软件引发了哪些问题?

人工智能有助于改善公共场所视频监控系统的预防作用。目前的软件可以持续不断地对图像进行分析,从中发现攻击行为,并迅速发出警报。这套新的系统正在接受测试,例如,安装在巴黎Châtelet地铁站各条走廊的那套系统。假如人们接受了视频监控的做法,那么使用人工智能的唯一问题就是,它也许会出错。但这个风险并不高,因为最终必须由人来决定是否需要进行干预。

不过,面部识别出现错误是很常见的。图像上一处小小的瑕疵,就足以让人工智能把人脸看成烤面包机!令人不安的是,人们感觉自己受到过度监控,而且系统出错次数也越来越多。

还有人担心,智能系统及其可能采用的种族和社会特征分析技术或被滥用。

您指的是哪种类型的滥用呢?

比如,一些国家目前采用某些程序,利用面部识别技术来发现“恐怖行为”或“犯罪特征”,也就是从人们的面部特征来判断他们的内在犯罪倾向!

人们原本以为这种相面术——号称可以通过观察面部特征来研判性格的伪科学理论——已成为历史的尘埃,谁知如今又死灰复燃。美国斯坦福大学的迈克尔·科辛斯基(Michal Kosinski)和王轶伦(Yilun Wang)深以为患,希望可以揭示其中暗藏的风险。为了提醒人们关注隐私侵犯所带来的风险,他们在2017年编写了“基达”程序——通过分析照片就可以识别某人是否为同性恋!编程者指出,这个程序的误差范围只有20%。应用这项技术,不仅会抹黑他人,而且还会侵犯个人隐藏其性取向的权利。

在缺乏哲学指导,或是缺失相关社会、法律规范的情况下开展的任何科学研究,都可能引发伦理问题。我刚刚提到的这几个例子说明,目前迫切需要为人工智能研究建立道德框架。

请谈谈优生学被滥用的情况。

在我看来,人工智能并非一定带来优生。有些人预言,利用人工智能,比如用芯片来拓展记忆或是改善面部识别,可以让人类更趋完善。智能机器人或许可以为某些残疾人提供医疗解决方案(例如安装先进的义肢,以恢复行动能力),不过其能够让人类具备超能力的假设,仍属于科幻小说的范畴。

 

马克-安托万·迪拉克

马克-安托万·迪拉克(法国) 蒙特利尔大学伦理学和政治哲学助理教授,现任加拿大公共伦理讲席教授,伦理研究中心(CRE)伦理和政治研究副主任。