Enlaces para accesibilidad

HRW: Redes sociales están borrando evidencias de crímenes de guerra


Un lanzamisiles antiaéreo Buk dispara un misil, durante unas maniobras militares en Ucrania, el 12 de octubre de 2019.
Un lanzamisiles antiaéreo Buk dispara un misil, durante unas maniobras militares en Ucrania, el 12 de octubre de 2019.

Las redes sociales sostienen que por ley deben eliminar materiales ofensivos o peligrosos. Pero una organización de derechos humanos lamenta que se están eliminando vídeos y fotos que servirían de prueba en procesos por crímenes de guerra.

Compañías de redes sociales están eliminando vídeos e imágenes que podrían ser vitales para los juicios de graves crímenes, incluyendo crímenes de guerra, según un nuevo reporte de la organización Human Rights Watch (HRW).

En su investigación titulada 'Vídeo no disponible: Plataformas de redes sociales quitan evidencias de crímenes de guerra', HRW señala que compañías como Facebook, Youtube y Twitter están usando cada día más algoritmos para eliminar material considerado ofensivo o ilegal. Los investigadores temen que evidencia crucial esté siendo destruida,

El reporte menciona vídeos de las redes sociales recopilados por la organización investigativa Bellingcat, como por ejemplo uno que mostraba un lanzamisiles ruso, que según fiscales, fue usado para efectuar el disparo que derribó un avión de pasajeros de Malaysian Airlines en el 2014.

La evidencia fue posteriormente usada por el equipo de investigación internacional, encabezado por Holanda, que realiza una investigación sobre el derribo del avión que mató a 298 personas. Rusia niega estar involucrada.

Holanda, que perdió a 193 ciudadanos en el ataque, informó a Moscú el viernes de que responsabiliza legalmente al Kremlin y de que buscará una compensación económica.

“Lo que sabemos de Bellingcat es que en las posteriores etapas de la investigación, regresaron a ver las fuentes, algunas publicaciones de redes sociales que usaron para soportar sus investigaciones, para suministrarlas a las autoridades judiciales en Holanda. En ese momento el contenido ya no estaba en línea”, dijo Belkis Wille, coautora del reporte de Human Rights Watch.

Wille dijo a la Voz de América que las pruebas presentes en las redes sociales juegan un papel central en muchas de las investigaciones de la organización.

“Lo que empezamos a ver en los últimos años, particularmente desde 2017, es que veíamos un vídeo, digamos de soldados ejecutando a alguien, o un video de propaganda del Estado Islámico y si quince minutos o una hora después buscábamos de nuevo el vídeo, de pronto ya había desaparecido”, dijo Wille en una entrevista el miércoles.

Los gobiernos están poniendo una creciente presión sobre compañías de internet para que quiten material ofensivo, ilegal o peligroso. Las redes sociales se comprometieron a hacer más para bloquear contenido extremista después de que, en 2019, un ataque terrorista en dos mezquitas en Christchurch, Nueva Zelanda, que dejó 51 personas muertas, fuera transmitido en vivo a través de Facebook.

Las compañías de redes sociales le dijeron a HRW que por ley están obligadas a quitar material que pueda ser ofensivo o incitar al terror, violencia u odio. Así como usan moderadores humanos, muchas de estas compañías también emplean algoritmos de inteligencia artificial para retirar material de sus plataformas.

“Ahora estos algoritmos son tan efectivos que están retirando material en el mismo momento en que son publicados. Así que nadie llega a verlos antes de ser retirados”, explicó Wille.

La Corte Criminal Internacional (CPI) emitió una primera orden de arresto basada en gran medida en pruebas recopiladas en redes sociales en el 2017, contra el comandante libio Mahmoud al Werfalli, a quién acusó de matar a tiros a varios rehenes en Benghazi. El acusado continúa prófugo.

Mientras tanto, grupos de la sociedad civil, como Syrian Archive, están usando vídeos de redes sociales para documentar posibles crímenes de guerra, incluyendo el uso de armas químicas. El grupo también se ha quejado de que prueba vitales han sido borradas de las redes sociales antes de poder analizarlas y archivarlas.

Wille asegura que podría haber una solución.

“Lo que estamos pidiendo es la creación de algún tipo de mecanismo mundial, algo como un archivo, donde el contenido que es retirado de las redes sociales pueda ser almacenado. Y luego dependería de ese organismo que ese material sea catalogado y almacenado, y que se cree un sistema para dar a ese material, no para que sea copiado y publicado en internet, pero para ser usado con fines investigativos", propuso.

Human Rights Watch dice que está en un diálogo con las compañías de redes sociales para crear dicho archivo. Twitter le dijo al grupo que no puede proveer a organizaciones de la sociedad civil de acceso al contenido de usuarios sin una orden judicial apropiada, agregando que apoya esfuerzos a través del Foro Mundial de Internet para Contrarrestar el Terrorismo para crear un andamiaje legal para considerar posibles avenidas para permitir un mayor acceso a contenido para usos apropiados”. Twitter rechazó hacer comentarios a la VOA.

Al momento de la publicación de este reportaje, Facebook y YouTube no habían respondido a solicitudes de comentarios hechos por Human Rights Watch y VOA Noticias.

Síganos en redes sociales

XS
SM
MD
LG