En un escenario de confusión como un desastre natural en el que abunda la desinformación, la IA puede generar aún más ruido. Desde la DANA que afectó distintas partes de España el martes 29 de octubre, han circulado en redes sociales imágenes y vídeos creados con inteligencia artificial: Pedro Sánchez cubierto de barro con un cartel, el rescate de un bebé o un póster de un festival taurino. También puede suceder lo contrario: ahora que sabemos que se puede usar IA para crear contenidos, hay imágenes reales que han confundido a usuarios y les han hecho pensar que eran hechas con IA, como la de los coches apilados en una calle.
En Maldita.es tenemos consejos para identificar imágenes y vídeos manipulados o generados con IA, pero a medida que avanza la tecnología se vuelve cada vez más difícil identificarlos. Si te has encontrado algún contenido de la DANA que no hayamos incluido en este artículo y tienes dudas sobre si es real o generado con IA, puedes escribirnos a tecnologia@maldita.es o a nuestro chatbot de WhatsApp +34 644 22 93 19.
Imágenes de la DANA creadas con IA que se viralizan en redes sociales: Sánchez cubierto de barro, el rescate de un bebé, un póster de un festival taurino e imágenes de inmigrantes
Como sucedió con el huracán Helene y el huracán Milton en Estados Unidos, el paso de la DANA por España también ha sido blanco de imágenes y vídeos manipulados o creados con inteligencia artificial. Algunos no esclarecen si han sido generados con IA y se publican en cuentas parodias (que pueden confundir a los usuarios), mientras que otros directamente se comparten como si fueran reales.
Por ejemplo, los contenidos que circulan en redes sociales que atribuyen a Pedro Sánchez la frase “quien quiera ayuda, que la pida” (que como te hemos explicado aquí, no es exacto) han inspirado una imagen creada con IA que se comparte en redes sociales. En esta, el presidente cubierto en barro sostiene un cartel que dice “si necesitan ayuda que la pidan” y parece estar en una zona golpeada por la DANA. Pero no es real: la original proviene de una cuenta de X dedicada a la animación que describe su contenido como “AI Art” (arte con inteligencia artificial).
También la imagen de un bebé en brazos de un bombero durante una inundación ha circulado en redes sociales. Este contenido se comparte con el mensaje: “Rescatado con vida un bebé en Catarroja, Comunitat Valenciana, víctima del DANA después de cuatro días atrapado”. Pero esta imagen no es real: no la han compartido fuentes fiables, tampoco existe información sobre un rescate de estas características, los uniformes no coinciden con los de los bomberos valencianos y algunos detalles como la mirada, boca y manos de los protagonistas sugieren que podría haber sido creada con IA.
El póster de un doble festival taurino benéfico para los afectados de la DANA también ha sido creado con IA. La imagen, que muestra a cinco toreros mirando coches apilados en el barro, causó revuelo en redes sociales. Zaragoza Toros, los organizadores del evento, que fueron los primeros en compartir el cartel en X, publicaron un comunicado en la red social donde anunciaron la suspensión del evento y afirmaron que “se confeccionó la imagen a través de inteligencia artificial”.
Otra imagen que parece de este tipo es la que se incluye en la previsualización de Twitter (ahora X) a un enlace del portal voxnews.org titulado “Inmigrantes saquean Valencia: más de 200 muertos y saquean los cadáveres” que muestra a tres hombres negros saltando sobre un coche. En el artículo enlazado no se incluye la imagen, pero podemos ver que la descripción de la página apunta contra “asociaciones financiadas por Soros y magistrados nombrados por la izquierda judicial que quieren destruir naciones y crear un gobierno global”. El portal simula ser una web de noticias, pero ningún otro medio ha publicado esta imagen. Además, la búsqueda inversa de Google no arroja otros resultados donde se haya compartido y la cuenta de X vinculada a la web muestra otras previsualizaciones que comparten características y parecen haber sido creadas con IA.
También se comparten vídeos manipulados con IA: usan voces sintéticas para imitar a Sánchez y cubren de barro a Mazón, Feijóo y Catalá
No todo son imágenes. También se comparten vídeos como este protagonizado por Pedro Sánchez. En el contenido, el presidente afirma que la agresión que sufrió en Paiporta es la mayor tragedia de la última década en España. Pero no es real: las imágenes corresponden a la rueda de prensa del 5 de noviembre por la DANA (aquí el vídeo de Europa Press), pero la locución no coincide con el vídeo, que en YouTube cuenta con la advertencia de ‘Contenido alterado o sintético’ que se usa para identificar contenidos creados con IA; en este caso, se trataría de una voz sintética. Además, ha sido publicado por la cuenta @froilan_rey_ que incluye en su descripción “parodia” y tiene varios vídeos de este estilo.
Otro vídeo muestra a la alcaldesa de Valencia María José Catalá, el presidente de la Generalitat de Valencia Carlos Mazón y al presidente del PP Alberto Núñez Feijóo, cubiertos de barro. El vídeo, que tiene 263.000 visualizaciones, fue compartido por primera vez por la cuenta de Instagram @mazon_dimision cuya descripción de perfil incluye el hashtag #ai (inteligencia artificial), al igual que otras publicaciones de la cuenta.
Imágenes que podían parecer creadas con IA, pero que son reales: coches amontonados y una pancarta de los ODS
También han circulado imágenes que algunas personas han señalado como creadas con IA, pero que son imágenes reales.
Por ejemplo, una de las imágenes más virales del paso de la DANA de octubre es una foto que muestra decenas de coches amontonados y destrozados en una calle. A pesar de que algunos perfiles afirmaron que había sido generada con inteligencia artificial, la imagen es real. El autor de la misma, Biel Aliño, la publicó en su cuenta de Instagram junto a más fotos desde otros ángulos y la Agencia EFE también tiene varias imágenes de la misma calle. La imagen fue capturada el 30 de octubre en la Avenida Gómez Ferrer de Picanya (Valencia).
Otro caso es el de la foto de una pancarta de los Objetivos Globales de Desarrollo Sostenible (ODS) colgada en Algemesí (Valencia). Se difunde con mensajes que afirman que se había colocado después del paso de la DANA para promover la Agenda 2030 y culpar al cambio climático de la tragedia, pero también hay tuits que sugieren que podría haber sido creada con IA. Pero ninguno de estos mensajes es acertado: la imagen es real y la pancarta fue colgada dos semanas antes de la DANA, el 14 de octubre, en el contexto de actividades por el Día Internacional para la Erradicación de la Pobreza.
Las situaciones de emergencia son una situación propicia para la aparición de bulos. Así, en Maldita.es seguimos desmintiendo bulos y desinformaciones relacionadas con la DANA y varias teorías de la conspiración desde el pasado martes 29 de octubre. Es fundamental: fíate sólo de fuentes oficiales y, ante la duda, es preferible no compartirlo. Aquí puedes consultar herramientas y fuentes para informarte sobre la DANA que está recorriendo España.