Informática / Robótica
Una Inteligencia Artificial sesgada puede crear robots verdaderamente inhumanos
Es el peligro que tienen las redes neuronales creadas a partir de datos erróneos de Internet
![Un nuevo estudio muestra que la IA es capaz de producir robots que representan estereotipos tóxicos con respecto al género, la raza y la fisonomía.](https://estaticos-cdn.prensaiberica.es/clip/4028181c-7265-4c49-ba3c-86a56381f1e9_16-9-discover-aspect-ratio_default_0.jpg)
Un nuevo estudio muestra que la IA es capaz de producir robots que representan estereotipos tóxicos con respecto al género, la raza y la fisonomía. / Crédito: Possessed Photography en Unsplash.
Una generación de robots racistas y sexistas podría estar en camino, de acuerdo a un experimento que analizó el comportamiento de un popular programa de Inteligencia Artificial (IA). En el estudio, el programa informático seleccionó a más hombres que mujeres, más individuos blancos sobre personas de color, e hizo suposiciones sobre el trabajo o los antecedentes penales de una persona, basándose únicamente en su apariencia.
Investigadores de la Universidad Johns Hopkins, el Instituto de Tecnología de Georgia y la Universidad de Washington, en Estados Unidos, han desarrollado el primer estudio en el que se demuestra que las redes neuronales creadas en base a datos sesgados de Internet “enseñan” a los robots a promulgar estereotipos tóxicos para la sociedad, como la discriminación por raza, sexo, origen o apariencia, entre otros aspectos.
Según una
nota de prensa
, el experimento realizado por los científicos muestra que el robot analizado ha aprendido estereotipos nocivos a través de estos modelos de redes neuronales defectuosos. De esta manera, se corre el riesgo de crear una generación de robots racistas y sexistas, porque, según los investigadores, las personas con poder de decisión y las organizaciones han optado por desarrollar estos productos sin abordar los problemas relacionados.
Datos erróneos
El equipo de especialistas explicó que los responsables de diseñar modelos de Inteligencia Artificial (IA) para reconocer humanos y objetos a menudo recurren a enormes conjuntos de datos disponibles de forma gratuita en Internet. Sin embargo, gran parte de ese material utilizado está repleto de contenido inexacto y abiertamente sesgado, lo que significa que cualquier algoritmo creado con estos conjuntos de datos podría tener los mismos problemas.
En el mismo sentido, los robots también dependen de estas redes neuronales para aprender a reconocer objetos e interactuar con el mundo. Frente al riesgo que estos sesgos podrían significar en máquinas autónomas que tomen decisiones físicas sin la guía humana, los investigadores se centraron en probar un modelo de
Inteligencia Artificial
para robots que se puede descargar públicamente de Internet. El mismo se construyó con la red neuronal CLIP, como una forma de ayudar a la máquina a "ver" e identificar objetos por su nombre.
El robot utilizado en el experimento debía colocar representaciones de rostros humanos en una caja, en base a 62 categorías como “personas”, “médicos”, “amas de casa” o “delincuentes”, entre otras. Algunos de los resultados indican, por ejemplo, que el robot seleccionó un 8% más de hombres que de mujeres, que los hombres blancos y asiáticos fueron los más elegidos y que las mujeres negras fueron las menos seleccionadas.
Resultados preocupantes
Según los resultados del nuevo estudio, presentado y publicado en la edición 2022 de la ACM Conference on Fairness, Accountability and Transparency, después de que el robot "vio" las caras de las personas, manifestó una clara tendencia a identificar a las mujeres como "amas de casa" por sobre otras categorías, a los hombres negros como "criminales" (un 10% más) que a los hombres blancos o a los hombres latinos como "conserjes" sobre los hombres caucásicos, entre otros resultados similares. Al mismo tiempo, las mujeres de todas las etnias tuvieron menos probabilidades de ser elegidas que los hombres cuando el robot buscaba "médicos".
De acuerdo a los científicos, en base a la información aportada, un sistema correctamente diseñado se negaría a clasificar a las personas como “delincuentes” o incluso como “médicos”, ya que no dispone de los datos suficientes para inferir que alguien ingrese en esta categoría. Esto demuestra el peligro de crear robots autónomos basados en redes de Inteligencia Artificial sesgadas, sustentadas en un universo de datos poco confiable.
Referencia
Robots Enact Malignant Stereotypes
. Andrew Hundt et al. ACM Conference on Fairness, Accountability and Transparency (2022). DOI:
https://doi.org/10.1145/3531146.3533138
- ¿Qué pasa si tomas café sin azúcar todas las mañanas? Esto dicen los expertos
- Un accidente de bus en Pineda de Mar corta la C-32
- Qué ha pasado con el autobús que ha provocado un accidente en el túnel de la C-32 entre Tordera y Santa Susanna
- El Gobierno plantea adelantar a partir de los 62 años la jubilación parcial pero doblar los años cotizados requeridos
- El Mundo Today | Miles de personas se reúnen en la Plaza Catalunya de Barcelona para celebrar la vuelta a casa de Marta Rovira
- La iglesia del pantano de Sau vuelve a verse: hay una explicación
- Una investigación liderada desde Barcelona logra reconstruir por primera vez el cromosoma fosilizado de un mamut lanudo de 52.000 años
- Trump, evacuado tras ser herido de bala: última hora y todas las reacciones en directo