La fórmula de Facebook que favorece la desinformación

Publicado el 01 noviembre 2021 por Cristianmonroy

En medio de una crisis de marca, Facebook ha cambiado de nombre a Meta, sin embargo para algunas personas este movimiento no es más que una distracción después de las filtraciones de los Facebook Papers.

Cuando se trata de innovar la red social lo ha hecho bien, sin embargo, al momento de implementar cambios que minimizan la posibilidad de expandir la desinformación un sencillo cambio puede tomarle años.

La fórmula de la desinformación

Hace algunos años, Facebook proporcionó a los usuarios nuevas formas de reaccionar a las publicaciones dentro de la plataforma, por primera vez existía algo más allá del ‘Me gusta’, apareció ‘me encanta’, ‘risa’, ‘wow’, ‘tristeza’ y ‘enojo’.

Lo que los usuarios ven en su feed de noticias, es el contenido que, según el algoritmo desarrollado por la empresa, puede despertar alguna emoción, siendo el enojo uno de los más importantes.

El algoritmo actualizado en 2017, otorga cinco veces más peso a los emojis que representan emociones en las publicaciones que a los ‘Me gusta’, en ese punto el objetivo de los emoji era fomentar el engage entre los usuarios, lo cuál es de hecho la base del negocio de Facebook.

¿El problema? Los emojis son la representación de una emoción real, las publicaciones que contienen emojis de enojo por ejemplo, contienen desinformación, mensajes considerados tóxicos y noticias de baja calidad, aunque, fomentan la controversia lo cuál podría aumentar también los niveles de interacción y ¿recuerdas la base del negocio de Facebook?

La ira y el odio es la manera más rápida de crecer en Facebook.

Frances Haugen

El desproporcionado peso que se asigna a la reacción de enojo dentro del algoritmo de la plataforma con respecto a sus similares es sólo uno de varios factores utilizados como intento de manipulación de la información.

Facebook afirma que toma en cuenta más de 10,000 factores para decidir que publicaciones deberían mostrarse primero a los usuarios.

Muchos de esos factores pueden pasar desapercibidos para la mayoría de usuarios por ejemplo, la longitud de los comentarios realizados, si un vídeo se transmite en vivo o ya está grabado, si los comentarios son solo texto o incluyen otros elementos e incluso la potencia de la señal de internet del usuario.

Fomentar el uso de las reacciones en Facebook era parte esencial de una estrategia de control de la información, sin embargo, ocurrían eventos colaterales menos visibles; un usuario que daba ‘Me enoja’ a un contenido, era más proclive a ser expuesto a contenidos similares ya que había demostrado interacción, lo cual fomentaba la creación de un círculo vicioso.

Se conoce también que de manera interna, los emojis de ‘me encanta’ y ‘tristeza’, se les daba un peso en el algoritmo cuatro veces mayor, debido a que son considerados como más seguros.

La solución entonces, para identificar de manera rápida publicaciones que favorecen la desinformación no habría sido difícil, ni técnicamente ni a través de políticas internas, de haberse querido hacer claro.

Recién hace algunas semanas, Facebook declaró que el peso o ponderación dentro del algoritmo, que se le da a un ‘Me enoja’ ha sido disminuido a cero, mientras que ‘me encanta’ y ‘tristeza’ han visto reducido su valor al equivalente de dos ‘Me gusta’.

Una vez más, la red social emprende acciones como medidas correctivas, una vez que el daño se ha hecho y las consecuencias conocido.

¿Sorprendente? En este punto no tanto, la pregunta es ¿hasta cuándo?

La entrada La fórmula de Facebook que favorece la desinformación se publicó primero en Cristian Monroy.