<
 
 
 
 
×
>
You are viewing an archived web page, collected at the request of United Nations Educational, Scientific and Cultural Organization (UNESCO) using Archive-It. This page was captured on 09:35:05 Nov 27, 2018, and is part of the UNESCO collection. The information on this web page may be out of date. See All versions of this archived page.
Loading media information hide
广角

奥德蕾·阿祖莱:充分施展人工智能的潜力

cou_03-18_dg_itw_01.jpg

人类与人工智能之间合作的象征。

人工智能可以帮助人类解决许多严峻的社会问题。但与此同时,人工智能也给人类提出了一系列复杂的挑战,特别是在伦理、人权和安全方面。目前还没有适用于所有人工智能开发和应用的国际伦理规范框架,国际监管工具必不可少。

奥德蕾·阿祖莱(联合国教科文组织总干事);雅斯米娜·萨波瓦  担任采访

教科文组织为何会关注人工 智能?

专家们一致认为,人类即将迈入新的时代。人工智能将以难以想象的程度改变我们的生活。这种转变已经显现,它正在影响人类生活的方方面面。人工智能广泛应用于卫生、教育、文化、安全和国防等领域,相关研究近年来大幅增加。脸书、苹果、微软、谷歌和亚马逊等互联网巨头以及许多国家投入重金开发人工智能,积极参与这场“第四次工业革命”。

在这个不断变化的时代,联合国教科文组织需要发挥重要作用。首先,人工智能应用直接涉及本组织的专业领域。人工智能将从根本上改变教育。教学工具、学习方式、知识获取和教师培训都将发生翻天覆地的变化。

在这个自动化程度日益加深的世界,人们需要掌握怎样的技能才能不断发展前进,这个问题将越来越重要。

人工智能已广泛应用于文化领域,例如在伊拉克的摩苏尔古城,我们将三维成像技术用于遗产修复工作。在科学领域,特别是在环境计划和水下研究方面,我们采用三维成像技术对浮游生物的图像进行分类,对各类鲸鱼和海鸟进行自动检测和统计调查。传播和信息同样直接依赖于人工智能的进步。联合国教科文组织必须引导各方反思人工智能在教育、文化、科学、传播和信息领域的利与弊。

 

您认为存在哪些风险?

总的说来,人工智能可以为实现《2030 年议程》所确定的目标创造绝佳的机会,但这意味着必须立刻着手解决随之而来的伦理问题。机会在于,人工智能应用可以帮助我们更快地实现可持续发展目标,途径包括改善风险评估;提升预测准确性,加速知识分享;在教育、卫生、生态、城市建设和创意产业等领域提出创新解决方案;以及提高生活水准,增进民众福祉。但由于自动化和数字化会造成新的失衡,人工智能也会带来威胁。人工智能可能会降低文化产业的多样性,干扰劳动力市场,让人丧失职业安全感,而且能否获取这些新技术会成为扩大个体差距的新因素。

教科文组织在这方面亦可发挥作用,向会员国提供支持,努力减少在获取知识和研究成果上的不平等。技术鸿沟可能会对社会不平等现象产生乘数效应。教科文组织必须帮助会员国适应新情况,并获取技术知识。

 

请您具体说说联合国教科文组织将如何提供这项帮助。

会员国面临的挑战之一是需要同时具备精密、先进的工程材料和充足的人力资源(科学家和工程师)。联合国教科文组织可以通过科技和创新(STI)教育与培训中心、全球科技和创新政策工具观察站(GO-SPIN)以及国际基础科学计划(IBSP)提供这方面的支持,并协助缩小国家之间的差距。

 

人工智能在教育领域提出了哪些挑战?联合国教科文组织将如何应对?

教育无疑是本组织的重点领域,当前的技术革命再次产生了正负两方面的影响。

基于人工智能的教育软件已被用于分散教学和个性化教学,可以为学生提供课程建议,甚至可以授予认证。但这些技术价格不菲,大多数人无法获取,贫富差距有可能进一步扩大。

可持续发展目标2030年教育指导委员会负责监测实现可持续发展目标4(教育)的进展情况,联合国教科文组织在该委员会中起协调作用,因而非常适合领导这项工作,确定人工智能对全纳教育可以做出哪些贡献,并评估人工智能对未来学习的潜在影响。

我们优先开展的工作之一将是推动开放提供人工智能工具,鼓励当地积极创新。

为了让子孙后代能够了解人工智能开创的新的工作环境,并为此作好准备,还需要落实以科学、技术、工程和数学为重点的反思教育方案,同时还必须突出发展人文学科,重视哲学和伦理方面的素养。

 

人工智能与哲学或伦理之间存在怎样的关系?

如今的中小学生在长大以后,必将面临在我们今天看来不可思议的各种问题。这些机器日益复杂,自主性不断增强,在某种程度上甚至已开始挑战人类身份,因而很难充分预测其发展。所以,道德伦理、人文社会科学知识将与形式科学知识同样重要。人工智能系统中也可能存在某些偏见,包括性别偏见。要消除偏见,必须增强系统透明度并树立牢固的伦理原则。

 

为什么很难预测人工智能的未来发展?

人工智能领域的发展日新月异,而规范这一领域所需的法律、社会和伦理环境却发展得非常缓慢。人类可以在多大程度上允许机器拥有自主权和决策权?一旦发生事故,由谁来负责?由谁来决定在“培训”期间赋予机器哪些价值观?这些问题以及其他很多问题至今仍未得到解答。

例如,我们注意到,由于文本数据会反映出日常文化中存在的刻板印象,用普通语言编写的算法已然带有偏见。如果机器表现出歧视性、种族主义或敌对行为,我们怎么能不担心呢?

让人担忧的问题还有很多,包括互联网上的隐私保护和定向广告,表达自由和审查算法,自动化新闻和信息垄断,等等。

即便人工智能领域的基础研究在很大程度上是为了增进人类福祉,但也总会在有意无意之间出现偏差。因此,务必要确保这项技术的发展遵守严谨的伦理标准。

 

联合国教科文组织在这方面能做些什么?

要想充分利用人工智能为世界带来的多种可能性,我们必须确保人工智能为人类服务,尊重人类的尊严和人权。

然而,目前还没有适用于所有人工智能开发和应用的国际伦理规范框架。

联合国教科文组织作为一个独特的全球论坛,在制订与生物伦理及科技伦理有关的国际文书*方面拥有20多年的经验。本组织下设的两个咨询机构致力于解决这些问题,可以提供专业知识,它们分别是:世界科学知识与技术伦理委员会(COMEST)和国际生物伦理委员会(IBC)。

我们有责任引导各方开展一场发人深省的全民辩论。不是讨论技术,而是探讨伦理,以便在步入新时代时,能够保持清醒和理智,坚守我们的价值观,按照会员国的意愿,为确定全球基本伦理原则创造条件。

 

机器人与伦理

究竟谁在做主?

 

延伸阅读:

世界人类基因组与人权宣言(1997)

国际人类基因数据宣言(2003)

世界生物伦理与人权宣言(2005)

与气候变化有关的伦理原则宣言(2017)

关于科学和科学研究人员的建议书(2017)