La retransmisión de un video en vivo de un ataque contra dos mezquitas en Nueva Zelanda hace casi dos semanas puso a Facebook bajo una fuerte presión por la difusión de contenidos extremistas en sus plataformas.
Su respuesta fue prohibirlos.La compañía dijo que bloqueará todo aquello que "elogie, apoye y represente al nacionalismo y al separatismo blancos" en Facebook e Instagram a partir de la próxima semana.
"Es evidente que esos conceptos están fuertemente vinculados a grupos de odio organizados, y no tienen lugar en nuestros servicios", dice un comunicado en su sitio web titulado Standing against hate (Enfrentando al odio).
Los usuarios de Facebook que busquen expresiones y términos relacionados con esa categoría serán redirigidos a la página de Life After Hate (Vida después del odio), una organización sin ánimo de lucro que combate el extremismo de ultraderecha.
El gigante de las redes sociales también se comprometió a mejorar su capacidad de identificar y bloquear contenido de grupos terroristas.
La red social dirigirá el contenido extremista a una página que lucha para combatirlo en la web.Un cambio de postura
Hasta ahora, Facebook permitía ciertos contenidos de nacionalistas blancos porque no los consideraba racistas(y eso incluía darles permiso a los usuarios para apoyar la creación de autoestados blancos en el mundo).
La empresa de Mark Zuckerberg -quien todavía no se pronunció personalmente sobre esta cuestión- dijo que solía contemplar al nacionalismo blanco como una forma aceptable de expresión equivalente a "cosas como el orgullo estadounidense y el separatismo vasco, las cuales son una parte importante de la identidad de la gente".
Sin embargo, señaló que, luego de consultarlo durante tres meses con "miembros de la sociedad civil y académicos", llegó a la conclusión de que el nacionalismo blanco no puede ser "separado de manera significativa" de la supremacía blanca y de los grupos de odio organizados.
A raíz de los tiroteos en Nueva Zelanda, varios líderes mundiales pidieron a las compañías de redes sociales que asumieron una mayor responsabilidad para combatir el material extremista publicado en sus plataformas.
El sospechoso del ataque, Brent Tarrant, era un australiano de 28 años que había publicado un manifiesto de 74 páginas en Twitter en el que calificaba a los inmigrantes como "un grupo de invasores" que trata de "reemplazar étnicamente" a su propia gente.
La primera ministra de Nueva Zelanda, Jacinda Ardern, dijo que las redes sociales son "el editor, no solo el cartero", en referencia a su responsabilidad potencial por el material que se comparte en ellas.
Facebook reconoció previamente que el video de 17 minutos del ataque, en el que murieron al menos 50 personas, fue visto más de 4.000 veces antes de que fuera eliminado de su plataforma.
La compañía dijo que, en 24 horas, bloqueó 1,2 millones de copias del video en el momento en que iban a ser publicadas y que eliminó otras 300.000.
El Consejo Francés de la Fe Musulmana (CFCM), un grupo que representa a musulmanes franceses, demandó a Facebook y a YouTube por la reproducción de ese video.
Otros grupos tecnológicos también tomaron medidas para evitar la distribución del video. Reddit bloqueó un foro llamado "watchpeopledie" (Mira gente morir) en el que se compartieron clips del ataque. Y Valve, que gestiona la red de videojuegos Steam, dijo que eliminó más de 100 "tributos" de usuarios que intentaron celebrar al atacante."Por desgracia, siempre habrá gente que trate de aprovecharse de nuestros sistemas para propagar el odio", dice el comunicado de Facebook.
Fuente: BBC Mundo