<
 
 
 
 
×
>
You are viewing an archived web page, collected at the request of United Nations Educational, Scientific and Cultural Organization (UNESCO) using Archive-It. This page was captured on 21:28:12 Jun 11, 2019, and is part of the UNESCO collection. The information on this web page may be out of date. See All versions of this archived page.
Loading media information hide
Gran angular

¿Qué riesgos éticos existen?

La inteligencia artificial (IA) permite aumentar la eficacia de algunas medidas discriminatorias que ya existen: creación de perfiles raciales o predicción del comportamiento, como conocer la orientación sexual de las personas. Por lo tanto, las preguntas éticas que suscita requieren la puesta en marcha de una legislación capaz de asegurar un desarrollo responsable de la IA.

Entrevista a Marc-Antoine Dilhac realizada por Régis Meyran

¿Qué problemas suponen los programas de análisis del comportamiento a partir de imágenes grabadas?

La IA contribuye a la mejora del uso preventivo de sistemas de videovigilancia en espacios públicos. Actualmente, los programas que detectan actos de agresión analizan las imágenes de manera continua, pudiendo dar la alerta rápidamente. Este nuevo sistema se ha probado, por ejemplo, en los pasillos de la estación de Châtelet del metro de París. Si aceptamos el principio de la videovigilancia, el único problema que supone el uso de la IA es el riesgo a error. Pero este riesgo no es muy elevado, ya que son los humanos quienes deben tomar la decisión final de intervenir o no.

Sin embargo, los errores en el reconocimiento facial son muy frecuentes. ¡Basta con una perturbación de la imagen para que la IA vea una tostadora en lugar de una cara! El sentimiento de una vigilancia abusiva y la multiplicación de errores pueden llegar a ser especialmente agobiante.

De hecho, conviene preocuparse por las posibles desviaciones en el uso de estos sistemas inteligentes y métodos para hacer perfiles (raciales o sociales).

¿A qué tipos de desviaciones se refiere?

Me refiero sobre todo a los programas, usados en varios países, que pretenden identificar los “comportamientos terroristas” o el “carácter criminal” de ciertas personas a través del reconocimiento facial. Entonces, ¡sus rasgos faciales desvelarían su criminalidad intrínseca!

Alarmados por este resurgimiento de la fisiognomía, Michal Kosinski y Yilun Wang de la Universidad de Stanford (Estados Unidos) han querido mostrar los peligros de esta teoría seudocientífica que creíamos relegada a la historia. Dicha teoría consiste en el estudio del carácter de una persona a partir de sus rasgos y expresiones faciales. Para llamar la atención sobre los riesgos de violación del derecho a la intimidad, Kosinski y Wang crearon en 2017 el gaydar: ¡un programa que pretende identificar a las personas homosexuales a partir de sus fotografías! Según sus autores, el margen de error del programa es tan solo del 20%. Además del efecto estigmatizador, la aplicación de esta tecnología violaría el derecho individual a no revelar su orientación sexual.

Toda investigación científica sin referencias filosóficas ni brújula sociológica o jurídica es susceptible de plantear problemas éticos. Estos pocos ejemplos que acabo de nombrar demuestran que urge imponer un marco ético en la investigación en IA.

¿Qué pasa con las desviaciones eugenésicas?

En mi opinión, la IA no constituye, a priori, un factor de eugenesia. Algunos predicen la llegada de un mundo en donde el ser humano podría mejorarse gracias a la IA: chips que aumentan la memoria o perfeccionan el reconocimiento facial, etc. Si la robótica inteligente puede aportar soluciones médicas a situaciones de discapacidad (como devolver la movilidad mediante sofisticadas prótesis), la hipótesis transhumanista del hombre mejorado permanece en el rango de la ciencia-ficción.

 

Marc-Antoine Dilhac

Profesor adjunto en Ética y Filosofía Política en la Universidad de Montreal, Marc-Antoine Dilhac (Francia) es titular de una cátedra de investigación de Canadá en ética pública y codirector del eje de Ética y Política del Centro de Investigación en Ética (CRÉ).