El arresto de Trump, el abrigo del papa o Putin arrodillado: bulos de imágenes creadas con inteligencia artificial

1 year ago 71

bulos imágenes inteligencia artificial

A medida que la inteligencia artificial continúa su desarrollo, han proliferado los bulos que presentan imágenes generadas con esta tecnología como si fueran reales. Con las herramientas actuales, las fotografías que permite crear la IA se asemejan bastante a la realidad, aunque contienen fallos —como rasgos deformados o dedos cortados— que permiten identificar que han sido hechas digitalmente. Además, herramientas como Hugging Face o el Grupo de Respuesta Rápida de Deep Fakes, que ha ofrecido su colaboración a los verificadores de la International Fact-Checking Network —a la que pertenece Newtral.es—, son ejemplos de iniciativas puestas en marcha para detectar estos deepfakes.

Recientemente, han circulado numerosas fotografías en redes sociales de líderes mundiales y otras celebridades que se han compartido como verdaderas, pero eran bulos elaborados con IA. Algunos de los objetivos han sido el expresidente de Estados Unidos, Donald Trump, el papa Francisco o el cofundador de Microsoft, Bill Gates. Asimismo, la desinformación mediante herramientas de inteligencia artificial también tuvo su espacio en la guerra de Rusia y Ucrania a través de un deepfake del presidente ucraniano, Volodímir Zelenski.

En Newtral.es hemos hecho un recopilatorio de los bulos que hemos desmentido sobre imágenes generadas con inteligencia artificial que se han presentado como reales.

Las imágenes del supuesto arresto de Trump fueron generadas con inteligencia artificial

A raíz de la investigación llevada a cabo por la fiscalía de Manhattan sobre los presuntos sobornos de Donald Trump a la actriz porno Stormy Daniels, además de un mensaje del expresidente sobre que iba a ser arrestado pronto, circularon una serie de fotografías que reflejaban su supuesta detención. Una de ellas mostraba al expresidente estadounidense rodeado de tres policías que lo escoltaban junto a un vehículo policial. En otras fotografías aparecía Trump siendo abatido por varios agentes con los que forcejeaba e incluso de los que intentaba huir.

Algunos de los mensajes virales situaban las instantáneas en la residencia del expresidente en Mar-a-Lago, mientras que otros usuarios aseguraban que el momento había tenido lugar en Nueva York o Washington DC. Sin embargo, ninguna de estas afirmaciones era cierta. Se trataba de un bulo y las fotografías no eran reales, sino que habían sido generadas con IA. El propio creador aseguró a Newtral.es que las creó con la herramienta Midjourney.

Además, en las instantáneas se podían distinguir una serie de errores que permitían identificar las imágenes como falsas. Por ejemplo, en una de ellas Trump llevaba una porra y un arma propias de los policías. En otras imágenes, los dedos de las manos del expresidente y los agentes aparecían con deformaciones, un fallo frecuente en las fotografías creadas con inteligencia artificial.

Las fotos falsas de Donald Trump siendo arrestado en Washington D.C. fueron generadas con inteligencia artificial

Las fotografías del papa Francisco con un plumífero blanco, otro de los bulos de imágenes hechas con inteligencia artificial

Desde el pasado 25 de marzo, usuarios de redes sociales se mostraron sorprendidos ante una serie de fotografías en las que aparecía el papa Francisco vistiendo un abrigo de plumas blanco de grandes dimensiones. Entre las imágenes compartidas, destacaba una en la que se veía al pontífice caminando por la calle sujetando un vaso de cartón, pero, de nuevo, las fotografías no eran reales.

Como en el ejemplo anterior, habían sido generadas con la herramienta Midjourney y un usuario de Reddit las publicó en un foro en el que los creadores comparten imágenes generadas con esta herramienta. Además, volvían a identificarse los mismos errores en lagunas partes del cuerpo, especialmente la mano derecha del papa que aparecía con los dedos cortados y no sujetaba el vaso de cartón correctamente.

papa Francisco abrigo

Putin no se arrodilló ante Xi Jinping durante su encuentro en Moscú, es un bulo: la fotografía se generó con IA

Otro de los bulos sobre imágenes creadas con inteligencia artificial fue una fotografía del presidente ruso, Vladímir Putin, y su homólogo chino, Xi Jinping. Esta se difundió tras producirse el encuentro entre ambos mandatarios en Moscú el 20 y 21 de marzo. En la imagen aparecía el presidente chino inclinado hacia Putin, que se arrodillaba ante él mientras le daba las manos.

No obstante, la fotografía tampoco era real, sino que se había generado digitalmente, según expertos consultados por Newtral.es. Asimismo, volvían a apreciarse errores como los dedos de un hombre situado detrás de los presidentes que aparecían difuminados o un fallo en la proporción de la cabeza de Putin respecto a su cuerpo. Por otro lado, ni la sala que aparecía en la fotografía viral ni el traje que vestía Xi Jinping coincidían con los que se veían en las imágenes del encuentro compartidas por fuentes oficiales.

Putin arrodillado Xi Jinping

La falsa entrevista de Bill Gates sobre las vacunas

Además de las fotografías, también han circulado vídeos con elementos creados digitalmente para promover desinformación. Es el caso de una supuesta entrevista de Bill Gates, de la cual se viralizó un fragmento en redes sociales que mostraba al cofundador de Microsoft cortando la conversación de manera abrupta al ser preguntado por las vacunas contra la COVID-19 y el supuesto daño que estas habían causado.

Sin embargo, se trataba de un bulo elaborado con IA. La entrevista original no mostraba este fragmento en ningún momento de la conversación, en la que tampoco se hizo referencia alguna a las vacunas. Según expertos consultados por Newtral.es, el audio se generó con inteligencia artificial y, para disimularlo en el vídeo, se colocaron subtítulos en inglés sobre los rostros de la periodista y Gates. De esta manera, era más difícil identificar que la sincronización de los labios era incorrecta.

entrevista Bill Gates vacunas

El deepfake en el que Zelenski anuncia la rendición de Ucrania

Los bulos de imágenes generadas con inteligencia artificial han proliferado en las últimas semanas, pero no es la primera vez que esta tecnología se utiliza para difundir desinformación. Ocurrió en el contexto de la invasión de Ucrania por parte de Rusia, cuando circuló en redes sociales un vídeo en el que el Volodímir Zelesnki anunciaba la supuesta derrota de las tropas ucranianas, a las que el presidente pedía que depusieran las armas y se rindiesen ante Rusia. Las imágenes virales se compartieron en marzo de 2022, un mes después del inicio de la invasión rusa.

No obstante, el vídeo no era real: se trataba de un deepfake que había sido elaborado con inteligencia artificial. El propio Zelenski, además de la Inteligencia ucraniana, desmintieron el vídeo rápidamente. Además, expertos consultados por Newtral.es apuntaron a que el vídeo lo elaboró un usuario afín a Putin utilizando un actor, decorados y horas de los discursos del mandatario ucraniano para meterlas en una IA capaz de generar voz y leer un texto.

Fuentes

Verificaciones de Newtral.es

Read Entire Article