Noticia

Un llamado a contrarrestar las desigualdades de género y sesgos en los sistemas de Inteligencia Artificial

Serie de seminarios web sobre ética e Inteligencia Artificial del Consejo Empresarial de la UNESCO
woman on laptop in fields

El segundo seminario web organizado por el Consejo Empresarial Iberoamericano sobre Inteligencia Artificial y Ética de la UNESCO, apoyado a través de su Oficina Regional UNESCO Montevideo se llevó a cabo el pasado 30 de mayo de 2023. Un enfoque de principios para combatir los sesgos y las desigualdades de género en los sistemas de IA - YouTube.

Este ciclo de webinars abiertos tiene como objetivo compartir entre varios actores vinculados a la IA -diseñadores, programadores, académicos, analistas- buenas prácticas y experiencias en torno a la implementación de la Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial.

¿Quién se beneficia de la implementación de la IA? ¿Cómo podemos vincularlos activamente con las oportunidades socioeconómicas para la población de América Latina?

El uso responsable y ético de la inteligencia artificial es un tema central en la agenda de desarrollo sostenible, tal como lo demuestra la recomendación de Inteligencia Artificial de la UNESCO. El Consejo Empresarial, presidido por Telefónica y Microsoft, se erige como la voz de las empresas de los sectores digital y de las telecomunicaciones, pero también de los sectores digitalizados como la banca, los seguros y el comercio que de forma proactiva quieren construir una Inteligencia Artificial ética, responsable y sostenible.

Este segundo seminario web se centró en el sesgo en los sistemas de IA. Alessandra Sala, de Shutterstock abrió el evento describiendo el estado actual del sesgo y la desigualdad de género en la IA. Durante los últimos 11 años, las alumnas de STEM siguen siendo el 30 %. Los nuevos doctorados en IA siguen siendo abrumadoramente hombres.

En 2021, casi el 80% de los nuevos doctores en IA eran hombres. Al adoptar una perspectiva multidimensional y emplear marcos éticos rigurosos, podemos generar un panorama de IA que no solo rectifique los sesgos existentes, sino que también se convierta en un catalizador para el cambio social transformador, empoderando a las personas de todos los géneros para prosperar en un mundo más justo e inclusivo.

Alessandra Sala también destacó el potencial de la Plataforma UNESCO Women4Ethical AI, establecida en marzo de 2023, con el objetivo de contribuir a la realización del capítulo de género de la Recomendación de la UNESCO sobre la Ética de la Inteligencia Artificial. Esta plataforma está formada por expertas profesionales y comprometidas, que liderarán un conjunto de actividades clave para promover la agenda de diversidad de género de la Recomendación de la UNESCO sobre la ética de la IA.

Hanna Wallach de Microsoft destacó que la equidad en la IA es un desafío fundamentalmente sociotécnico, lo que significa que no se puede abordar desde perspectivas puramente sociales o puramente técnicas. En su opinión, la palabra “sesgo” es ambigua y significa diferentes cosas para diferentes comunidades. En Microsoft, se están centrando en cambio en cinco tipos de daños relacionados con la equidad que son útiles para desentrañar quién podría verse perjudicado por un sistema y de qué manera, además de sugerir diferentes estrategias de prevención y mitigación.

Elena Gil de Telefónica Tech explicó el enfoque práctico de Telefónica para mitigar el sesgo de género en los sistemas de IA. La igualdad de género es parte del programa más amplio de diversidad e inclusión de la empresa. Telefónica ha adoptado un modelo de gobernanza de IA que proporciona un enfoque y una metodología para abordar el sesgo de género, entre otros riesgos del uso de la IA, utilizando herramientas internas y externas de código abierto para detectar y mitigar el sesgo de género . Y también aporta parte de sus herramientas internas a la comunidad de código abierto. En particular, las herramientas de IA explicables ayudan a visualizar qué tan justo es un algoritmo con respecto a las variables protegidas que a menudo se asocian con grupos vulnerables. La explicabilidad es a menudo un requisito previo para la detección de sesgos. Afirmó que lo que funciona para el sesgo de género, funciona para cualquier otro sesgo (como raza, edad, religión, etc.) siempre que los atributos correspondientes estén contenidos en el conjunto de datos de entrenamiento.

Nayat Sanchez Pi de Inria Chile y la Asociación Chilena de Empresas de Tecnologías de la Información (ACTI) destacaron que priorizar prácticas responsables de diseño y lanzamiento de IA es un aspecto clave, ya que la IA continúa avanzando a una velocidad sin precedentes y es urgente enfrentar su potencial para impulsar la innovación, pero también su impacto negativo (alucinaciones y otros).

La especialista explicó cómo convergieron en una metodología multinivel que incluye 4 niveles para hacer frente a esos desafíos:

i) comprender los datos;

ii) métodos de ML que sean robustos y consistentes contra los sesgos;

iii) análisis a posteriori de los modelos, para ver el modelo en la práctica para entender dónde va a ocurrir el impacto negativo;

iv) una evaluación de subespecificación y sesgo de por vida, una vez implementado el modelo en el mundo real.

En su opinión, la solución a una IA Responsable (no solo ética) está necesariamente ligada a seguir teniendo más trabajo de investigación multidisciplinario para hacer frente a esos desafíos.

En el segmento de preguntas y respuestas, Ángel Melguizo , Asesor de Ética e Inteligencia Artificial de la UNESCO, explicó que hoy sabemos que una buena regulación de la IA es favorable para los negocios.

El próximo seminario web tendrá lugar el 13 de julio de 2023 y se centrará en el potencial de la IA generativa.

  • Los detalles del registro se publicarán pronto en las plataformas de la UNESCO.