El Tribunal Supremo de Facebook

Por Gerardo Pérez Sánchez @gerardo_perez_s

El Consejo Asesor de Contenidos de Facebook, cuyo nombre oficial es “Oversight Board”, se puso en marcha a mediados de octubre. Popularmente denominado  “Tribunal Supremo de Facebook”, su misión consiste en revisar y establecer los criterios objetivos por los que el gigante tecnológico decide eliminar contenidos publicados en sus redes sociales. Está compuesto por cuarenta miembros de todo el mundo, procedentes de diversos sectores y a cargo de variados perfiles, que podrán seleccionar los casos sometidos posteriormente a revisión y ratificar o revertir las decisiones que se adopten.

El citado Consejo ofrece a los usuarios una vía de recurso o impugnación contra las decisiones de Facebook o Instagram sobre el borrado de las publicaciones. Inicialmente, los afectados pueden solicitar que la propia red social revise sus decisiones y, si no se sienten conformes con la respuesta final, iniciar un proceso de apelación ante dicho Consejo. El criterio de admisión de esas apelaciones es discrecional, por no decir arbitrario, dado que el número de solicitudes desborda con notoria claridad el volumen de asuntos capaces de ser tramitados por el órgano de referencia.

Por indicar cifras concretas, tras abrirse este servicio hace apenas dos meses, el “tribunal” en cuestión ya ha recibido más de 20.000 casos, resultando más que evidente la imposibilidad de atender todas esas reclamaciones, por lo que se pretende dar prioridad a los casos que afecten a numerosos usuarios a nivel mundial, que se alcen fundamentales para el discurso público o que planteen interrogantes importantes sobre las políticas de Facebook.

Una vez admitidos a trámite, el “Oversight Board” les asignará un panel de miembros que llevarán a cabo la revisión detallada en función de la información recibida, tanto de la persona que ha presentado la apelación como de la propia empresa. Posteriormente, adoptarán una decisión vinculante (lo que significa que Facebook deberá implementarla) y el Consejo redactará una explicación acerca de su decisión que estará disponible públicamente en su sitio web.

De las más de veinte mil reclamaciones, este Consejo eligió estos seis primeros casos:

1.- Facebook eliminó una publicación en Brasil en la que se veían ocho imágenes que describen los síntomas del cáncer de mama en las que se apreciaban pezones femeninos cubiertos y descubiertos. La red social las borró  al considerar que infringían su política sobre desnudos y actividad sexual de adultos.

2.- Facebook eliminó una publicación de un usuario con una captura de pantalla de dos tuits de Mahathir bin Mohamad, ​Primer Ministro de Malasia desde mayo de 2018 hasta febrero de 2020, en los que aseguraba que «los musulmanes tienen derecho a estar enfadados y matar a millones de franceses por las masacres del pasado». La plataforma alegó que tal publicación infringe su política sobre discurso del odio o incitación al odio.

3.- Facebook eliminó la publicación de dos fotos del niño Aylan Kurdi, el menor fallecido que yacía en la orilla de una playa turca tras el fallido intento de su familia de llegar a Grecia. Junto a estas dos fotografías, el post preguntaba en idioma birmano por qué no existen represalias contra el trato que da China a los musulmanes de la etnia uirgur. La red social explicó que esta supresión se debía a que el contenido infringía su política sobre discurso del odio o incitación al odio.

4.- Facebook eliminó un post sobre una cita atribuida supuestamente a Joseph Goebbels, Ministro de Ilustración Pública y Propaganda del Tercer Reich en la Alemania nazi, sobre la irrelevancia de la verdad y la necesidad de apelar a las emociones y a los instintos en lugar de al intelecto. La empresa alegó que infringía su política sobre personas y organizaciones peligrosas y no permitía la presencia en Facebook de ninguna organización o persona que cometiera actos violentos o cuyos objetivos lo fueran.

5.- Facebook también eliminó fotos en las que se veían iglesias de Bakú, capital de Azerbaiyán, con un texto en el que se aseguraba que esta ciudad fue fundada por el pueblo armenio, y se preguntaba por el destino de estos templos. El usuario afirmaba que en Armenia (de mayoría cristiana) se están restaurando mezquitas, mientras que en Azerbaiyán (de mayoría musulmana) se están destruyendo iglesias, y que él se posiciona en contra del «ataque azerbaiyano» y el «vandalismo». La red social suprimió esta publicación alegando que infringía su política sobre el discurso del odio o incitación al odio.

6.- El último caso fue remitido al Consejo por el propio Facebook. Un usuario publicó un vídeo sobre un presunto escándalo de la agencia francesa responsable de la regulación de los productos sanitarios, en el que se aseguraba la denegación de la autorización del uso de la hidroxicloroquina y la azitromicina contra el Covid-19, pero se permitía el envío de correos electrónicos promocionales sobre el Remdesivir. Logró cerca de 50.000 reproducciones y fue compartido alrededor mil veces. Facebook decidió eliminar el contenido porque infringe su política de publicaciones alegando que «si bien entendemos que las personas suelen expresar desprecio o desacuerdo mediante amenazas o apelaciones a la violencia sin intenciones serias, eliminamos el lenguaje que incita a cometer actos graves de violencia o los hace posibles».

A mi juicio, sería deseable que cada uno de nosotros reflexionara sobre cuál sería nuestra decisión si formásemos parte de ese “Tribunal Supremo de Facebook” para, de ese modo, tener conciencia de qué modelo de sociedad queremos, qué tipo de redes sociales deseamos y qué espacio pretendemos dejar a la libertad de expresión en una sociedad democrática.