La tecnología no es y no se espera que sea perfecta, es un complemento que ayuda a profesionales y empresas a ser más productivos pero, al menos no se debería, esperar que por sí sola resuelva todos los problemas.
Al igual que en la vida cotidiana, el uso de la tecnología es un juego de probabilidades.
Los algoritmos se nutren de información de manera constante esperando que el porcentaje de éxito aumente de manera gradual.
Algoritmos racistas
Que los algoritmos existentes han tenido problemas que derivan en sesgos de distintos tipos es una realidad, que lo hagan con ese fin ya es un tema distinto.
Existen aquellos que intentan predecir con una probabilidad del 80% si alguien cometerá un crimen basados en un análisis aplicado a su rostro.
El problema viene cuando no se conocen a ciencia cierta los elementos que el algoritmo usa como determinantes al momento de realizar su predicción, acentuando sesgos ya existentes en algunos sistemas de justicia.
Puede ser que de alguna manera, los algoritmos estén ayudando a extrapolar un problema ya existente en donde factores como el color de piel, la edad, el género, la situación económica, preferencias sexuales o religión pueden determinar el tipo y nivel de oportunidades a las que una persona tiene acceso.
El algoritmo de Twitter
Twitter utiliza un algoritmo que se encarga de recortar automáticamente una imagen de gran tamaño con el fin de que encaje en el timeline de todos los usuarios, hasta ahí nada fuera de lo común.
Sin embargo, distintos usuarios han realizado pruebas en donde, en una fotografía donde aparecen dos personas, una de tez blanca y otra con piel de color, el algoritmo recorta a este último, mostrando solo a la persona de piel clara.
I’m doing a test.
— Cow Momma (@Cow__Momma) September 20, 2020
I want you all to tell me what you see in the preview for both pics. pic.twitter.com/xwgBZxkFBC
En el tuit anterior podrás ver a la misma persona en ambos lados de la imagen (en la previsualización), sin embargo si das clic para ampliar la imagen podrás notar el problema.
Otro ejemplo similar:
Trying for myself pic.twitter.com/t3lQ1QSfu9
— Deepti Sharma (@cowbai) September 20, 2020
Incluso lo hace con personajes animados:
I wonder if Twitter does this to fictional characters too.
— Jordan Simonovski (@_jsimonovski) September 20, 2020
Lenny Carl pic.twitter.com/fmJMWkkYEf
Uno más, involucrando a Mitch McConnell y Barack Obama:
Trying a horrible experiment…
— Tony “Abolish (Pol)ICE” Arcieri (@bascule) September 19, 2020
Which will the Twitter algorithm pick: Mitch McConnell or Barack Obama? pic.twitter.com/bR1GRyCkia
¿Viendo cosas donde no las hay?
La presión de muchos usuarios haciendo eco sobre el problema fue tema de varios titulares alrededor del mundo, en donde Twitter se disculpó por los sesgos ocasionados por el uso de su algoritmo.
El sitio AlgorithmWatch menciona una verdad innegable:
El comportamiento de un algoritmo está determinado por su código, pero también por los datos con los que se entrena.
El algoritmo de recorte de imágenes que utiliza Twitter toma un conjunto de datos y crea reglas para determinar como cortar la imagen.
Aunque es un grupo de humanos el que determina que conjunto de datos se utiliza para el entrenamiento.
Hasta ahora la mayoría de algoritmos, de varias redes sociales se han entrenado utilizando conjuntos de datos de personas de piel clara.
La solución podría estar en aumentar la variedad en el conjunto de datos necesario para entrenar un algoritmo.
Aunado a esto, el diseñador en jefe de Twitter menciona que la elección del recorte de las imágenes toma en consideración otros factores como el color del fondo.
Además, el algoritmo podría estar aprovechando para su funcionamiento un efecto conocido como prominencia (saliency) que consiste en detectar los elementos que más llaman la atención de una imagen o fotografía.
Se utiliza en publicidad para determinar que elementos debería poder mirar una persona incluso si da un vistazo rápido, y por supuesto en la detección de objetos dentro de las fotografías.
Un artículo de Twitter explica la forma en como funciona la red neuronal que recorta las imágenes.
No, los algoritmos no son por sí mismos racistas.
¿Necesitan mejoras? Por supuesto, incluso las personas mejoramos de manera constante ¿porqué los algoritmos no tendrían que hacerlo?
Tal vez sea hora de dejar de intentar ver cosas donde no las hay.
La entrada Los algoritmos racistas como tendencia, o tal vez solo intentar ver cosas donde no las hay se publicó primero en Cristian Monroy.