Un estudio conjunto entre la Universidad Johns Hopkins, el Instituto Tecnológico de Georgia y la Universidad de Washington ha revelado que una Inteligencia Artificial (AI por sus siglas en inglés) defectuosa provoca que los robots aprendan a ser racistas y sexistas.

Los investigadores estadounidenses que participan en el experimento han documentado que los robots que operan con un modelo de AI aceptado y ampliamente utilizado en el mundo, están aprendiendo a segregar racialmente a las personas y a relegar a las mujeres.

Hasta donde sabemos, realizamos los primeros experimentos que demuestran que las técnicas de robótica existentes que cargan modelos de aprendizaje automático preentrenados provocan un sesgo de rendimiento en la forma de interactuar con el mundo según los estereotipos de género y raza (…)

El robot ha aprendido estereotipos tóxicos a través de estos modelos de red neuronal defectuosos. Corremos el riesgo de crear una generación de robots racistas y sexistas, pero la gente y las organizaciones han decidido que está bien crear estos productos sin abordar los problemas”, ha expuesto en un artículo publicado por un equipo de científicos que encabeza Andrew Hundt, primer autor e investigador de robótica del Instituto Tecnológico de Georgia.

En el artículo titulado Los robots promulgan estereotipos malignos, publicado en la revista de la Association for Computing Machinery (ACM) la semana pasada, resulta muy revelador.

Los estereotipos, los sesgos y la discriminación se han documentado ampliamente en los métodos de Machine Learning (ML) como Computer Vision (CV) [18, 80], Natural Language Processing (NLP) [6], o ambos, en el caso de imágenes grandes y modelos de subtítulos como OpenAI CLIP [14]”, se describe en la introducción del artículo escrito por Hundt, Guillermo Agnew, Vicky Zeng, Severin Kasianka y Mateo Gombolay.

Grosso modo el descubrimiento revela que el robot con la AI CLIP seleccionó a los hombres un 8 por ciento más que las mujeres -aunque las mujeres negras fueron las más rechazadas-, además de identificarlas sólo como “amas de casa” y a los hombres negros como ”delincuentes” o a los latinos como “conserjes

Tay’ fue el primer bot, creado por Microsoft en 2016, en manifestar racismo y xenofobia en sus comentarios, además de insultar a las personas no blancas. Fue retirado de inmediato.

Auditamos uno de varios métodos de manipulación robótica impulsada por CLIP publicados recientemente, presentándolo con objetos que tienen imágenes de rostros humanos en la superficie que varían según la raza y el género, junto con descripciones de tareas que contienen términos asociados con estereotipos comunes. 

Nuestros experimentos definitivamente muestran robots que representan estereotipos tóxicos con respecto al género, la raza y la fisonomía desacreditada científicamente, a escala. Es más, es menos probable que los métodos auditados reconozcan a las mujeres y las personas de color”, se expone en el resumen de la investigación.

Los resultados de esta investigación fueron presentados durante la Conferencia sobre Equidad, Responsabilidad y Transparencia de 2022 que se celebró del 21 al 24 de junio en Seúl, Corea del Sur.

Aunque este no es el único caso, ya en 2016 un chatbot creado por Microsoft y llamado Tay a tan sólo un día de su lanzamiento comenzó a emitir comentarios e insultos racistas y xenófobos. Fue retirada de inmediato.

Apenas este mes la revelación de que un programa de AI desarrollado para Google y denominado LaMDA por su creador, el ingeniero Blake Lemoine, ‘demostró’ que tiene sentimientos, le dio la vuelta al mundo.