<
 
 
 
 
×
>
You are viewing an archived web page, collected at the request of United Nations Educational, Scientific and Cultural Organization (UNESCO) using Archive-It. This page was captured on 22:19:15 Jun 10, 2019, and is part of the UNESCO collection. The information on this web page may be out of date. See All versions of this archived page.
Loading media information hide

Building peace in the minds of men and women

Grande Angular

Os riscos éticos da IA

A Inteligência Artificial (IA) pode ser usada para aumentar a eficácia de medidas discriminatórias já existentes, tais como caracterização racial, previsão de comportamento ou mesmo a identificação da orientação sexual de uma pessoa. As questões éticas levantadas pedem por uma legislação que assegure o desenvolvimento responsável da IA.

Marc-Antoine Dilhac, entrevistado por Régis Meyran

 

Quais são as questões levantadas por softwares de análise comportamental com base em filmagens?

A IA ajuda a melhorar o uso preventivo de sistemas de vigilância por vídeo em locais públicos. Atualmente, as imagens são analisadas continuamente por softwares que detectam atos de agressão e que é capaz de ativar o alarme rapidamente. Este novo sistema está sendo testado, por exemplo, nos corredores da estação de metrô Châtelet, em Paris. Se nós aceitamos o princípio de vigilância por vídeo, o único problema com o uso de IA é o risco de erro. E este risco não é tão alto, já que são seres humanos que tomam a decisão final sobre intervir ou não.

Entretanto, erros de reconhecimento facial são muito comuns. Uma pequena falha na imagem é tudo o que é preciso para que a IA veja uma torradeira no lugar de um rosto! A sensação de vigilância excessiva e a multiplicação de erros certamente pode ser preocupante.

É também motivo de preocupação que estes sistemas inteligentes e as técnicas de identificação de perfil racial e social utilizados possam levar a abusos.

A quais tipos de abuso o sr. se refere?

Eu me refiro, sobretudo, ao caso dos programas já em uso em diversos países, que utilizam o reconhecimento facial para identificar “comportamento terrorista” ou “caráter criminoso”. Suas características faciais poderiam ser usadas para indicar suas tendências criminosas intrínsecas!

Preocupados com o ressurgimento da "fisiognomia", Michal Kosinski e Yilun Wang, da Universidade de Stanford, nos Estados Unidos, decidiram expor os perigos dessa teoria pseudocientífica – que imaginávamos ter ficado no passado –, que alega estudar o caráter de uma pessoa por meio do reconhecimento facial. Para chamar atenção para os riscos da invasão de privacidade, eles criaram “Gaydar” em 2017, um programa que identificaria se uma pessoa é homossexual ou não apenas ao analisar sua fotografia! De acordo com os autores, a margem de erro do programa é de apenas 20 por cento. Além do efeito estigmatizante, a aplicação desta tecnologia violaria o direito das pessoas de não divulgar sua orientação sexual.

Qualquer pesquisa científica feita sem orientação filosófica ou diretrizes sociológicas ou jurídicas é propensa a problemas éticos. Os poucos exemplos que eu acabei de mencionar mostram a necessidade urgente de se estabelecer um modelo ético para a pesquisa em IA.

E a questão dos abusos eugenistas?

Na minha opinião, a princípio, a IA não é um aspecto da eugenia. Alguns profetizam um mundo no qual os humanos possam ser melhorados por meio do uso de IA – chips para expandir a memória ou melhorar o reconhecimento facial etc. Enquanto a robótica inteligente pode oferecer soluções médicas para algumas formas de deficiência (tais como oferecer mobilidade por meio de próteses sofisticadas), as hipóteses transumanistas do homem aumentado permanecem no reino da ficção científica.

 

Marc-Antoine Dilhac

Professor-assistente na cadeira de filosofia política na Universidade de Montreal, Marc-Antoine Dilhac (França) é presidente do Programa de Pesquisa em Ética Pública e é codiretor de pesquisa ética e política do Centro de Pesquisa em Ética (Centre for Research on Ethics - CRE).