Ya hay varios ejemplos de algoritmos de inteligencia artificial (IA) con muy diversos objetivos y aunque entre la mitología de las IA existe la creencia de que las IA son como ángeles sin prejuicios ni vicios terrenales, ya sabemos que no es cierto. Y los algoritmos inteligentes también tienen prejuicios. Por un lado cualquier aplicación adolecerá de los prejuicios de que les doten quienes elijan los requisitos técnicos y de quienes los programen. Algunos serán conscientes y otros, los peores, inconscientes. Y si esto fuera poco, los algoritmos de IA se entrenan con datos extraídos de las redes por lo que hay que tener en cuenta el sesgo de los datos, textos e imágenes provenientes de redes sociales y comunidades de internet.
No es teoría, ya tenemos varios ejemplos y estudios:
El sexismo en los algoritmos: una discriminación subestimada
Un experimento con imágenes idénticas de hombres y mujeres desvela sesgo en IA
La IA de los sistemas de reconocimiento facial tienen un problema racial
El algoritmo de Instagram favorece las imágenes de hombres (28%) y mujeres (53%) semidesnudos
Discriminación por el uso de Inteligencia Artificial: el malogrado automatismo de contratación de Amazon
Otro caso muy interesante fue el de la IA de Microsoft Tayprogramadapara mantener conversaciones en las redes sociales (otra chatbotintentando superar el test de Turing). Fue alimentado, en su primer día de funcionamiento público, por un grupo de desaprensivos eligiendo los datos para hacerla una nazi de pro con tanto éxito que Microsoft tuvo que cerrarlo en 16 horas.
Lo apropiado podría parecer no poner límites, pero la sociedad en su conjunto presenta sesgos que influirán en los algoritmos de forma sutil e inadvertida.
Aparte de que internet aún sigue estando compuestas por subgrupos sociales, unos más activos que otros y con distinto alcance.
La sociedad (y más internet) es machista, racista y clasista, quizás de una forma moderada y pasiva que muchos no notan o no notamos. He aquí el peligro. Así que no es tan buena idea usar datos masivos (big data) sin filtro porque no todos los grupos sociales están igualmente representados y activos en la Red.
¿Y si filtramos los datos eliminaríamos el sesgo? Quizás sí, pero no es seguro. Habrá quién desconfié de quién selecciona qué datos y de los criterios, o incluso verá objetivos perversos al no dejar “libre” al algoritmo. Pero en cualquier caso si esta selección es pública, conocida y sujeta a debate; si hay algún sesgo será consciente y controlable. Lo malo del sesgo no es que exista, sino que exista y no lo sepamos.
Sería bonito que los algoritmos pudiesen tener un pensamiento racional crítico, pero primero habría que conseguir esto para la mayoría de la humanidad.
Otras fuentes de información:
“Hay que educar a los algoritmos” (UNESCO)
¿Qué fue de Tay, la robot de Microsoft que se volvió nazi y machista?