Enlaces para accesibilidad

Cómo se está usando IA para desinformar sobre la guerra en Ucrania y cómo detectar un "deepfake"


[Imagen tomada de Freepik].
[Imagen tomada de Freepik].

La IA es usada para desinformar sobre la guerra creando imágenes y videos que parecen reales a primera vista y tienden a hacerse virales rápidamente en las redes sociales. Te explicamos cómo identificar un "deepfake" o imágenes y videos hechos con IA.

El uso masificado de la inteligencia artificial (IA) con herramientas como Microsoft Bing o ChatGPT se ha convertido en un arma de doble filo para la desinformación. Si bien es posible generar imágenes o textos graciosos e inofensivos —como aquella imagen del Papa Francisco vestido con una chaqueta deportiva—, también existen casos en los que se ha utilizado la IA para desinformar.

En marzo de este año se compartieron en redes sociales imágenes de Donald Trump siendo arrestado por la policía. Pese a que el autor de las imágenes aclaró que eran fabricadas, las fotografías se difundieron en las redes sociales en varios países como verdaderas.

Las posibilidades de creación que ofrecen las IA son numerosas y no se limitan a la fabricación de imágenes o textos, sino que también es posible realizar montajes audiovisuales con el rostro y voz de una persona. A esto último se le conoce como deepfake y se utiliza, en contextos de desinformación, para perjudicar la imagen de alguna figura pública. Esto no es nuevo: en agosto de 2022 se viralizó un deepfake en el que se le atribuía una ventaja electoral a Jair Bolsonaro.

El conflicto armado entre Rusia y Ucrania no ha estado exento del uso de las tecnologías para desinformar. Un factor común es la edición de imágenes para añadir o quitar elementos. Tres semanas después del inicio de la invasión rusa, el 16 de marzo de 2022, apareció un video falso que mostraba supuestamente al presidente Volodymyr Zelenskyy pidiendo a sus soldados que depusieran las armas y se rindieran. El clip de un minuto se viralizó rápidamente en canales de Telegram prorusos y la red social VK. Incluso fue publicado en el sitio web del canal Ukraine 24, quienes denunciaron un ataque cibernético y aclararon que el video no era real.

En el video se observa, por ejemplo, que los hombros del mandatario están rígidos casi todo el tiempo y que solo se mueve su cabeza. También existe un contraste entre el tono de piel del rostro y del cuello, lo que delata su fabricación. Este fue el primer deepfake que circuló y fue rápidamente desmentido por el mismo Zelenskyy en su canal de Telegram.

Un año después, en junio de 2023, circuló un supuesto discurso de emergencia pronunciado por Vladimir Putin en el que anunciaba la implementación de la ley marcial. En este caso, el video fabricado fue emitido por la televisión y radio rusas. El deepfake fue desmentido por el Gobierno y la Compañía de Radio y Televisión Interestatal.

Al igual que en el caso de Zelenskyy, las imágenes difundidas no están en alta resolución. Una comunicación oficial suele transmitirse en la más alta calidad de imagen y sonido, por lo que si esto es algo que no está presente, se recomienda dudar de la veracidad del contenido y comprobarlo con una búsqueda en canales oficiales. Este paso es importante, ya que si realmente se hubiese anunciado la implementación de una medida —la ley marcial en este caso—, habría sido publicada en las redes sociales y sitios oficiales del Gobierno.

Un caso más reciente de este tipo de desinformación utilizando IA es un video en el que se observa supuestamente a Zelenskyy bailando. Se trata de un clip en baja calidad que se compartió como real —y que habría sido difundido por la TV ucraniana. Se trata de un deepfake: la persona en el video es el bailarín argentino Pablo Acosta.

Otros ejemplos de desinformación utilizando inteligencia artificial

En febrero de este año circuló en redes sociales una supuesta “señal” en el cielo de Ucrania. Algunos usuarios la vincularon a una posible catástrofe que guardaría relación con la guerra —respecto al “aniversario” de la invasión— o, incluso, con los terremotos ocurridos en Turquía y Siria. Los detalles en alta definición y los colores de la fotografía contribuyeron a que se viralizara rápidamente en distintas redes.

Sin embargo, era una imagen creada con Midjourney, un sitio web especializado en la creación de imágenes a partir de un texto. El usuario que creó la imagen aclaró que no es una fotografía real.

También existe el caso del supuesto militar ruso “Baoer Kechatie”, quien, en Douyin, una red social parecida a TikTok, pretendía ser un soldado de primera línea y contaba sus hazañas en el campo de batalla.

“Kechatie” difundía en mandarín distintos testimonios de lo que ocurría en la batalla e incluso aseguró que su batallón había incautado uno de los vehículos de Zelenskyy. Sin embargo, todo era mentira. En realidad se trata de un ciudadano chino de la provincia de Henan que utilizó la fachada de soldado para poder vender una serie de productos.

El avance de la tecnología hace cada vez más complicado poder identificar si un video es real o fue generado por IA. Sin embargo, hay que prestar atención a los detalles. Las imágenes hechas con ayuda de IA suelen tener alta resolución y nítidez pero carecen de pulcritud en los detalles (como orejas y dedos) y fondos complejos. En el caso de los deepfakes, es importante fijarse en la resolución de los videos y los movimientos de las personas que aparecen. También es relevante fijarse en el tono de piel y comparar la grabación con otra de la misma figura.

[Este artículo fue realizado por el equipo de verificación de Mala Espina Check]

¡Conéctate con la Voz de América! Suscríbete a nuestros canales de YouTube, WhatsApp y al newsletter. Activa las notificaciones y síguenos en Facebook, X e Instagram.

XS
SM
MD
LG