Revista Ciencia

Algoritmos IAs sesgadas y/o educadas

Publicado el 04 enero 2021 por Flobo1966

Ya hay varios ejemplos de algoritmos de inteligencia artificial (IA) con muy diversos objetivos y aunque entre la mitología de las IA existe la creencia de que las IA son como ángeles sin prejuicios ni vicios terrenales, ya sabemos que no es cierto. Y los algoritmos inteligentes también tienen prejuicios. Por un lado cualquier aplicación adolecerá de los prejuicios de que les doten quienes elijan los requisitos técnicos y de quienes los programen. Algunos serán conscientes y otros, los peores, inconscientes. Y si esto fuera poco, los algoritmos de IA se entrenan con datos extraídos de las redes por lo que hay que tener en cuenta el sesgo de los datos, textos e imágenes provenientes de redes sociales y comunidades de internet.

No es teoría, ya tenemos varios ejemplos y estudios:

Otro caso muy interesante fue el de la IA de Microsoft Tayprogramadapara mantener conversaciones en las redes sociales (otra chatbotintentando superar el test de Turing). Fue alimentado, en su primer día de funcionamiento público, por un grupo de desaprensivos eligiendo los datos para hacerla una nazi de pro con tanto éxito que Microsoft tuvo que cerrarlo en 16 horas.

Lo apropiado podría parecer no poner límites, pero la sociedad en su conjunto presenta sesgos que influirán en los algoritmos de forma sutil e inadvertida.
Aparte de que internet aún sigue estando compuestas por subgrupos sociales, unos más activos que otros y con distinto alcance.

La sociedad (y más internet) es machista, racista y clasista, quizás de una forma moderada y pasiva que muchos no notan o no notamos. He aquí el peligro. Así que no es tan buena idea usar datos masivos (big data) sin filtro porque no todos los grupos sociales están igualmente representados y activos en la Red.

¿Y si filtramos los datos eliminaríamos el sesgo? Quizás sí, pero no es seguro. Habrá quién desconfié de quién selecciona qué datos y de los criterios, o incluso verá objetivos perversos al no dejar “libre” al algoritmo. Pero en cualquier caso si esta selección es pública, conocida y sujeta a debate; si hay algún sesgo será consciente y controlable. Lo malo del sesgo no es que exista, sino que exista y no lo sepamos.

Sería bonito que los algoritmos pudiesen tener un pensamiento racional crítico, pero primero habría que conseguir esto para la mayoría de la humanidad.

Otras fuentes de información:

“Hay que educar a los algoritmos” (UNESCO)

Sesgo algorítmico (Wikipedia)

¿Qué fue de Tay, la robot de Microsoft que se volvió nazi y machista?

El sesgo, ¿es el nombre de un ogro?


Volver a la Portada de Logo Paperblog