La otra cara de la censura de vídeos violentos en las redes: se están eliminando pruebas de los crímenes de guerra

El pasado 15 de marzo de 2019 se produjeron dos atentados contra mezquitas en Nueva Zelanda que dejaron más de 50 muertos y una honda preocupación y dolor en una sociedad poco acostumbrada a sufrir ataques de este tipo. Una de las grandes críticas que se hizo fue la retransmisión, casi en directo y a través de las redes sociales, de la violencia acaecida en esta localidad oceánica. El impacto fue tal que Jacinda Ardern, primera ministra del país, lanzó la voz de alarma sobre la difusión de estos ataques a través de Facebook, Twitter o YouTube y pidió a las compañías que no permitan este tipo de actuaciones.

En ese momento, al calor del dolor por la tragedia, los apoyos fueron unánimes y dio comienzo el debate sobre si era necesaria esta censura. Sus partidarios aseguraban que evitaba la radicalización de otras personas y que era macabro mostrar este tipo de imágenes. Ahora, dos meses después se muestra la otra cara y sus argumentos son igualmente potentes: la eliminación de todo el contenido violento está provocando que se destruyan las pruebas que permiten llevar ante la Justicia a los atacantes.

Varias mujeres musulmanas se abrazan tras la tragedia de Christchurch en Nueva Zelanda. (David Alexander/SNPA via AP)

El mejor ejemplo es un caso que ocurrió en 2017 y que terminó de forma satisfactoria, tal y como cuenta The Atlantic. En el mes de julio, apareció en Facebook un vídeo que capturaba la ejecución de 18 personas. El momento era muy duro porque mostraba cómo esas personas eran asesinadas a sangre fría. Las órdenes las daba un muchacho joven que vestía gorra negra y pantalones de camuflaje. No se sabía más.

Los investigadores rápidamente se pusieron manos a la obra y reduciendo la velocidad del vídeo fueron capaces de determinar que el hombre llevaba una camiseta de la Brigada Al Saiqa, una unidad de élite del Ejército Nacional de Libia. Así, ya se sabía el país en el que se había producido el crimen.

Las pesquisas continuaron y se descubrió que los asesinatos se habían producido a las afueras de Bengasi y que el líder de la matanza era Mustafa Busayf al-Werfalli. Solo un mes después, la Corte Penal Internacional le acusó de la muerte de 33 personas en siete casos distintos gracias a las pruebas obtenidas a través de los vídeos en línea. Facebook retiró el documento, pero estuvo el tiempo suficiente en la Red como para que el hombre fuera identificado.

En otras ocasiones no ha habido tanta suerte sin embargo. Otro caso que cuenta Bernhard Warner es el del Archivo Sirio, un colectivo de activistas que desde 2014 se dedica a buscar los materiales publicados por las personas abandonadas en las zonas de guerra en Siria. El objetivo es documentar las violaciones de derechos humanos para llevar a los responsables ante los tribunales.

A finales de 2017, el grupo llevaba ya mucho tiempo de trabajo construyendo un caso contra Bashar el Assad cuando todos los vídeos desaparecieron. Los responsables fueron los algoritmos de las grandes empresas tecnológicas, que eliminan sistemáticamente publicaciones violentas y sensibles. Todo el caso que habían ido poniendo en pie se evaporó de un día para otro.

En los últimos meses las redes sociales se han tomado muy en serio la eliminación del contenido extremista en la Red. Solo en 2018, Youtube retiró más de 33 millones de vídeos de sus páginas, aproximadamente unos 90.000 diarios. El 73% de ellos se eliminaron tan rápidamente que no pasaron por ningún filtro humano. Por su parte, Facebook, eliminó 15 millones de piezas entre finales de 2017 y 2018. De ellas, el 99,5% fueron suprimidas por la tecnología y solo el 0,5% venían de las quejas de los usuarios.

Youtube y Facebook eliminan miles de publicaciones diarias (REUTERS/Dado Ruvic/Illustration).

Son cifras que muestran cómo se está tratando este problema. La inteligencia artificial se ha convertido en el nuevo policía que vigila lo adecuado y lo inadecuado en las redes. El software de aprendizaje automático es ese gran mecanismo que se encarga de limpiar de contenido violento las páginas y mantener la Red mucho más limpia y segura. Un proceso que, sin embargo, tiene inconvenientes.

Y es que estas plataformas actúan como cajas negras que engullen información valiosa. Al estar programadas simplemente para eliminar contenido violento, no tienen en cuenta si un vídeo puede tener pruebas o puede ayudar a documentar un crimen. YouTube ya ha confirmado que está trabajando con organizaciones sobre derechos humanos este punto, pero es difícil encontrar una postura intermedia que evite la proliferación de la violencia y a la vez permita investigar a los culpables.

Los países occidentales, con Nueva Zelanda y Francia a la cabeza, se han destapado como los principales partidarios de la eliminación inmediata de los vídeos sensibles en redes como Facebook y amenazan con multas masivas a las tecnológicas si no lo llevan a cabo. No cabe duda que el debate está servido y que hay enfoques muy distintos que sería necesario complementar. Los próximos meses serán decisivos.