Qué han hecho (y qué no) las plataformas y redes sociales para hacer frente a la desinformación sobre la DANA

4 days ago 80

Las principales plataformas digitales y redes sociales no implementaron acciones relevantes y específicas para hacer frente a la crisis de desinformación que ha traído consigo la DANA que afectó a la Comunidad Valenciana y otras zonas del este de España el 29 de octubre de 2024. Así lo ha revelado este informe de Maldita.es que analiza la respuesta de TikTok, Twitter (ahora X), YouTube, Facebook, Instagram, WhatsApp, LinkedIn y Telegram a los bulos y narrativas desinformadoras que han circulado sobre la situación de emergencia.

Vídeos con mensajes falsos que aún circulan en TikTok, bots de la India que publican sobre la DANA en X, contenido desinformador recomendado en LinkedIn y YouTube, plantillas de ‘Para ti’ con bulos en Instagram y desinformación en los canales más populares de Telegram. La inacción de las plataformas ha permitido que narrativas dañinas que desprestigian las instituciones públicas, desinforman sobre el clima, la demolición de presas y embalses y la seguridad en la zona penetren en la población española y más allá de sus fronteras.

A un clic, ¿de qué hablamos en este tema? Pincha para ampliar

A pesar de que, en teoría, TikTok no permite la desinformación durante emergencias, hay cientos de vídeos con mensajes falsos publicados y viralizándose 

En TikTok nos podemos encontrar con todo tipo de vídeos que contienen desinformación sobre la DANA: desde contenidos sobre los supuestos muertos en el centro comercial de Bonaire (Aldaia) y creadores que sostienen que la DANA es el resultado de un ataque meteorológico HAARP, hasta publicaciones que señalan que la serie ‘Respira’ anticipó las inundaciones, entre otros temas. 

Para hacernos una idea de la cantidad de desinformación que circula en la plataforma: Maldita.es identificó 129 vídeos con mensajes falsos sobre la DANA que acumulan más de 120 millones de reproducciones; hay muchos más. En teoría, la plataforma dice no permitir la desinformación “que pueda provocar el pánico sobre una situación de crisis o emergencia”. De igual forma, los vídeos siguen publicados y también los comentarios que alimentan estos bulos y teorías de la conspiración. 

La investigación de Maldita.es no detectó ninguna etiqueta de ‘Contenido no verificado’ en estos vídeos, a pesar de que están diseñadas para marcar publicaciones “que son especialmente comunes durante el desarrollo de eventos o crisis”, según la plataforma

Lo que sí ha hecho TikTok es habilitar un mensaje específico que aparece cuando hacemos una búsqueda relacionada con la DANA. Este dice: “Seguridad en desastres naturales. Infórmate sobre desastres naturales y planes de respuesta en desarrollo consultando fuentes confiables. Más información”. Si hacemos clic sobre esta última frase, nos llevará a una página que advierte que “cuando los eventos se suceden rápidamente, puede ser que el contenido no siempre sea preciso” y recomienda ir “con cuidado” al interactuar con contenido sensible. Como fuentes oficiales enlaza a la página web de la Agencia Estatal de Meteorología (AEMET) y la Dirección General de Tráfico “para obtener información actualizada sobre el estado de las carreteras en tu zona”. 

Captura de pantalla del mensaje que aparece al buscar contenidos relacionados con la DANA. Fuente: TikTok.
Captura de pantalla del mensaje de advertencia. Fuente: TikTok.

Las Notas de la comunidad y las etiquetas de ‘Mantente informado’ no logran hacer frente a toda la desinformación sobre la DANA en X

Unos días después de las inundaciones, Maldita.es detectó una serie de cuentas bot en X, muchas de ellas de la India, que publicaban y respondían masivamente a tuits sobre la DANA en España. Algunos de estos mensajes replicaban otros tuits populares de usuarios reales que incluían desinformación o promovían la violencia contra inmigrantes, periodistas y autoridades. La motivación de estas cuentas es difícil de esclarecer, pero sí sabemos que la mayoría de los mensajes siguen disponibles en la red social y las cuentas siguen contando con el tic azul de verificación de X, lo que les permite tener más visibilidad en la red social. 

Estos bots multiplican la desinformación que abunda en la plataforma sobre la DANA. En este contexto, X no ha tomado medidas específicas para hacer frente a esta crisis y las herramientas que ya existen en la plataforma no han podido hacer frente a todos los bulos y mensajes dañinos que circulan. 

La plataforma de Elon Musk apuesta por las Notas de la comunidad para que sus usuarios agreguen contextos a tuits que pueden ser engañosos de forma colaborativa (te explicamos todo sobre este sistema aquí). En el caso de la DANA, las Notas de la comunidad sí han sido útiles para algunas publicaciones extremamente virales, pero no logran mantenerse al día con la gran cantidad de desinformación que hay en la plataforma. 

Otra herramienta de X que está fallando durante la crisis desinformativa es la etiqueta de ‘Mantente informado’ (‘stay informed’ en inglés) que marca tanto publicaciones creadas o manipuladas con IA como contenido engañoso “para ayudar a las personas a comprender su autenticidad y brindar contexto adicional”, según la web de la plataforma. El análisis de Maldita.es no encontró estas etiquetas en ninguna de las publicaciones revisadas y tampoco hubo señales de información contextual de fuentes confiables en los apartados de Tendencias, Explorar o Buscar.

Captura de la etiqueta ‘Mantente informado’ utilizada por X para marcar contenido engañoso o sintético.

El problema de la desinformación en X no es nuevo. De hecho, la Unión Europea está  investigando a la plataforma por incumplir la DSA

YouTube recomienda publicaciones con desinformación en los resultados y el etiquetado de contenido sintético falla

En Youtube circulan distintos vídeos que amplifican teorías de la conspiración o bulos sobre la DANA. Más importante aún: la plataforma los recomienda directamente en los resultados de búsqueda. Si buscamos ‘HAARP Valencia’, nos recomendará vídeos sobre la teoría de la conspiración que asegura que la DANA ha sido producto de un ataque meteorológico HAARP. Algo similar sucede si escribimos ‘Cruz Roja DANA’ en el buscador: los dos primeros resultados son vídeos que amplifican las narrativas desinformadoras sobre la ONG. 

Resultados de búsqueda en YouTube de '“HAARP Valencia”.
Primeros resultados de búsqueda en YouTube de “Cruz Roja DANA”.

YouTube no ha tomado ninguna medida específica sobre la DANA, algo que sí había hecho en otras crisis, durante las cuáles se incluyeron paneles informativos o etiquetas genéricas con fuentes fiables en los resultados y vídeos. 

Las medidas existentes, como las etiquetas de ‘Contenido alterado o sintético’ tampoco han sido suficientes. YouTube “exige a los creadores que avisen a la audiencia cuando el contenido que parezca realista se haya modificado significativamente o generado de forma sintética”, según su web. Aunque algunos vídeos han sido marcados correctamente, como esta parodia de Pedro Sánchez, otros que muestran la imagen falsa de un bebé rescatado en Catarroja (Valencia) no cuentan con la etiqueta

Meta cuenta con un programa de verificación externo, pero han circulado bulos en historias de Instagram y en WhatsApp, donde no se pueden marcar como ‘Información falsa’

Desde la DANA, las historias de Instagram se han llenado de distintas plantillas con el botón “Ahora tú” para compartir consejos para los voluntarios, datos para donaciones e incluso algunos bulos. Por ejemplo, una plantilla con el mensaje “Coches fúnebres saliendo de Bonaire”, que amplifica la teoría de la conspiración que afirma que se esconde el número de muertos encontrados en el parking del centro comercial de Aldaia, fue compartida más de 813 veces al momento de la captura de pantalla el 6 de noviembre de 2024.  

Este formato permite a los usuarios compartir con solo un clic un contenido en su historia. Pero supone algunos problemas: no permite incluir las etiquetas de ‘Información falsa’ de Meta (la dueña de Instagram, Threads, Facebook y WhatsApp) y hace más difícil hacer un seguimiento de su difusión, ya que no se puede consultar un enlace directo a la plantilla. 

Las etiquetas de ‘Información falsa’ son resultado del trabajo del programa de verificación externo de Meta para identificar contenido desinformador en Facebook, Instagram, WhatsApp y Threads en el que participa Maldita.es junto a otras organizaciones de fact-checking. Nuestro análisis revela que el etiquetado sí es consistente, por ejemplo, en publicaciones que amplifican el bulo de que se han demolido presas y azudes en Valencia

Por su parte, WhatsApp contempla otras medidas para lidiar con contenido desinformador, ya que por privacidad las conversaciones están cifradas y por lo tanto son ilegibles (salvo para quien lo envía y quien lo recibe). Por ejemplo, la plataforma de mensajería sí cuenta con un símbolo para marcar los mensajes que han sido reenviados muchas veces y así alertar de su viralidad. 

Pero de igual forma, la desinformación circula en la app. Según el informe, Maldita.es recibió más de 550 mensajes sobre una cadena que advertía de no abrir unas fotos de Pedro Sánchez porque podían hackearte el teléfono (es un bulo). Además, contenidos de otras plataformas también se distribuyeron en WhatsApp, como el audio falso de un sargento de la UME que decía que habían 200 niños muertos y que recibimos en nuestro chatbot unas 130 veces en tan solo dos días. 

La política de LinkedIn es eliminar el contenido falso o inexacto, pero a través del buscador podemos encontrar fácilmente bulos sobre la DANA

En LinkedIn no solo se publican ofertas de trabajo, reflexiones sobre el mundo laboral o contenido sobre una organización, también circulan bulos, varios de ellos sobre la DANA. Por ejemplo, una búsqueda sencilla de ‘Bonaire muertos’ nos arroja como primer resultado una publicación donde se afirma que están sacando muertos en trailers frigoríficos del centro comercial de Aldaia (Valencia), algo que ya hemos desmentido en Maldita.es

El enfoque de la red social para contrarrestar la desinformación es eliminar este tipo de publicaciones. Pero, según nuestro análisis, es fácil acceder a publicaciones en diferentes países que contienen bulos desmentidos sobre la DANA mediante una búsqueda de palabras clave. 

El primer resultado de búsqueda en LinkedIn de ‘Bonaire muertos’ incluye desinformación.

En los canales públicos más populares de Telegram han circulado narrativas desinformativas sobre las inundaciones y el manejo de la crisis

Los canales públicos de Telegram son una fuente de contenido dañino, como reveló una investigación de Maldita.es junto a la Universidad de Granada. Esto no ha sido distinto en el caso de la DANA, donde un análisis de los canales más populares ha detectado la difusión y creación de distintas narrativas sobre las inundaciones y el manejo de la crisis

Un contenido que afirmaba que toda la ropa donada a los afectados por la DANA en Alfafar se estaba tirando a un vertedero se difundió en dos de los canales con más suscriptores de la investigación. Estos mensajes, sobre los que han ofrecido contexto la Policía Local y el ayuntamiento, son de los que más hemos recibido en nuestro chatbot: se nos preguntó sobre ellos unas 303 veces en tres días. 

Telegram no ha tomado acciones específicas sobre la DANA. Tampoco menciona en sus normas de la comunidad la desinformación dañina ni cuenta con herramientas como el límite al número de reenvíos de los mensajes o etiquetas de “reenviado muchas veces”, como en WhatsApp. El problema con el contenido dañino en la plataforma es de tan alto nivel que hay una investigación formal contra Pavel Durov, el CEO y fundador de la plataforma, por su supuesta complicidad. 

Ni las plataformas implementaron medidas específicas ni la UE activó los mecanismos de respuesta de crisis incluidos en la DSA

Además de regular el espacio digital, la Ley de Servicios Digitales (DSA) de la Unión Europea cuenta con algunos instrumentos para combatir la desinformación en situaciones de crisis como la DANA. Estos permiten exigir a las plataformas aplicar medidas específicas, relevantes y proporcionadas, como que entreguen información que conciencie a los usuarios de consultar fuentes oficiales. Pero en esta ocasión la UE no activó estos mecanismos de respuesta.

A esto se le suma que, como hemos analizado, las plataformas digitales tampoco implementaron medidas específicas por voluntad propia para abordar la situación. Las herramientas ya existentes, como el etiquetado del contenido, no fueron suficientes para abarcar todos los bulos que circularon después de las inundaciones. 

Las situaciones de emergencia son una situación propicia para la aparición de bulos. Así, en Maldita.es seguimos desmintiendo bulos y desinformaciones relacionadas con la DANA y varias teorías de la conspiración desde el pasado martes 29 de octubre. Es fundamental: fíate sólo de fuentes oficiales y, ante la duda, es preferible no compartirlo. Aquí puedes consultar herramientas y fuentes para informarte sobre la DANA que está recorriendo España.

TRANSPARENCIA: Maldita.es participa desde 2019 en el programa de verificación de datos externo de Meta.


Read Entire Article