La inteligencia artificial es racista pero… espera, siempre hay alguien detrás de estos sistemas

Publicado el 26 junio 2020 por Cristianmonroy

Imagina esto…un algoritmo que es capaz de predecir si alguien cometerá un crimen solo analizando la fotografía en donde se distinga el rostro de alguna persona.

Prometiendo además un 80% de probabilidad de éxito.

La buena noticia es que no tienes que imaginarlo porque ya existe.

La mala noticia es que no tienes que imaginarlo porque ya existe.

El debate se produce a raíz de un documento a publicarse por la compañía editorial Springer que muestra el proceso a través del cual una Red Neuronal Profunda puede predecir la criminalidad analizando una fotografía.

Más de 1,000 expertos relacionados con la inteligencia artificial, expertos en tecnología y académicos, han firmado una petición alegando que dichos estudios refuerzan los sesgos pre existentes en el sistema de justicia criminal.

El racismo como tema central

En la actualidad se vive alrededor del mundo en un período de infelicidad generalizado.

El hedonómetro es una herramienta creada en 2008 que permite medir la felicidad o tristeza relativa en múltiples lenguajes analizando las publicaciones en Twitter.

En esencia toma una muestra aleatoria sobre el 10% de los tuits que se envían en un determinado lenguaje en un día específico.

Las palabras se comparan después con una base de más de 10,000 palabras para analizar entonces la escala de felicidad o tristeza.

Palabras como “murder” (asesinato), “racist” (racista) y “sad” (tristeza) han sido constantes en Estados Unidos y algunos otros países.

A new all-time low for the Hedonometer, as happiness levels continue to drop in the days after George Floyd’s murder.
Lower than the shock of the coronavirus pandemic.
Lower than the mass shooting in Las Vegas in 2017. pic.twitter.com/39fEgce4cu

— hedonometer (@hedonometer) May 30, 2020

Se trata de un tema efervescente que se ha viralizado e intensamente ligado a la tecnología, y por lo visto también a la tristeza de las personas.

Hay estudios que intentan demostrar que incluso el COVID-19 ha afectado en mayor medida a ciertas minorías como americanos de color. ¿Virus racista?

El papel de los algoritmos

El tema resurgió, ya en 2017 se dio a conocer un documento en el cuál los autores apelaban a la habilidad de predecir un comportamiento criminal futuro entrenando a un algoritmo con las caras de ex convictos.

La pregunta en este punto es: ¿qué convierte a una persona en un criminal?

¿El hecho de haber cometido un crimen o la probabilidad de cometer un crimen en el futuro?

En el siglo 19, el criminólogo italiano Cesare Lombroso propuso la teoría de que los criminales de nacimiento podían ser identificados por defectos congénitos. Claro, en ese momento no había inteligencia artificial.

Incluso acuñó el término criminaloide para referirse a aquellas personas que cometían crímenes de manera ocasional aún sin tener los rasgos de un criminal de nacimiento.

Momus Analytics es una empresa que ofrece el servicio de selección de jurados en Estados Unidos utilizando un sistema de puntuación predictiva, asignando una calificación en base a rasgos o cualidades ambiguas como el liderazgo o la responsabilidad personal.

La técnica de puntuación predictiva es la misma que se usa en la mercadotecnia para conocer la probabilidad de que una persona responda a una oferta o mensaje promocional.

La empresa tiene una patente pendiente aún cuando no se ha demostrado una correlación válida entre los elementos que involucra en su proceso, sin contar con el hecho de que excluir jurados en base a su raza o sexo va contra la ley.

Habilidades como el manejo de modelos predictivos han tenido un ascenso exponencial en su demanda durante los últimos años, aunque intentar predecir una intención de compra es útil, jugar a ser Dios, eso ya es otra historia.

La entrada La inteligencia artificial es racista pero… espera, siempre hay alguien detrás de estos sistemas se publicó primero en Cristian Monroy.