La pandemia de la COVID 19 ha supuesto un antes y un después en muchos aspectos de nuestras vidas que van desde el uso habitual de la mascarilla ante picos de gripe o similares, hasta un mayor gusto por los espacios abiertos o una mayor demanda de viviendas con terrazas y jardines. Pero ese contexto crítico también supuso un aumento exponencial del consumo de contenidos digitales y con ello una expansión sin precedentes de la desinformación. Según el Eurobarómetro 2018 (nº. 464 sobre noticias falsas desinformación en línea) el 88% de la población española considera que la desinformación es un problema, y un 66% afirma encontrarse con información falsa al menos una vez por semana. La relevancia del español (segunda lengua materna del mundo, con 483 millones de hablantes en más de 30 países) hacía imprescindible contar con herramientas específicas para este ecosistema lingüístico y mediático.
Frente a esta realidad, David Arroyo Guardeño, del Grupo de Investigación en Ciberseguridad y Protección de la Privacidad (GiCP) del Consejo Superior de Investigaciones Científicas (CSIC) se puso a trabajar de la mano de la Agencia Estatal de Investigación (AEI), que le otorgó una ayuda de Proyectos de I+D+I en Líneas Estratégicas que finalizó en 2024. En el contexto del proyecto XAI-Disnfodemics, GiCP abordó el diseño de una metodología de carácter socio-tecnológico para analizar desinformación desde una perspectiva multimodal (texto, imágenes, estilo de escritura, patrones de difusión) y explicar al usuario, no solo si un contenido es falso o manipulativo, sino cómo y por qué lo es.
El proyecto XAI-Disinfodemics fue coordinado por el catedrático Paolo Rosso (Universidad Politécnica de Valencia), y abordó este tema con el objetivo de contribuir a luchar contra un fenómeno que, según describe Arroyo, contribuye de manera efectiva a los discursos negacionistas y extremistas generando “polarización” en la sociedad. El proyecto XAI-Disinfodemics ha contribuido al desarrollo de una herramienta innovadora de inteligencia artificial explicable (XAI) diseñada para identificar información falsa e intentos de desinformación, analizando técnicas de manipulación emocional y ofreciendo a los ciudadanos información clara sobre la calidad de los contenidos que consumen.
Imagen del equipo de trabajo del proyecto. Foto: David Arroyo.
Para ello, fue necesario superar el gran reto inicial que implicaba la generación de suficiente corpus lingüístico en español como para que los resultados de su análisis, tras la aplicación de la herramienta, fuesen representativos. También supuso la colaboración multidisciplinar con científicos y científicas de áreas como la lingüística o la psicología social, capaces de determinar de manera ajustada qué términos era necesario analizar para evitar sesgos y obtener resultados fiables. Arroyo destaca que el proyecto ha buscado “ir más allá de la simple detección de bulos”, incorporando la capacidad de identificar técnicas psicolingüísticas y narrativas utilizadas para captar la atención del usuario, provocar emociones y favorecer la viralidad. El objetivo es ofrecer una lectura completa del contenido, señalando elementos persistentes en campañas de conspiración y patrones propios de manipuladores digitales, detectados a partir de cientos de miles de muestras anotadas. El investigador subraya que “la clave ha sido integrar enfoques técnicos y sociales: no basta con identificar un bulo; hay que entender las narrativas, los actores y los mecanismos de difusión que lo sostienen”.
Consolidación de una línea de investigación en expansión
XAI-Disinfodemics ha permitido profundizar en análisis avanzados, como:
· caracterización del estilo de escritura de manipuladores y emisores de clickbait,
· detección automatizada de negacionismo y teorías conspirativas en redes,
· ciberatribución mediante técnicas de procesamiento del lenguaje natural,
· identificación de comunidades polarizadas y patrones de amplificación artificial.
El trabajo del equipo ha dado lugar a publicaciones de referencia, nuevas metodologías para desmentir bulos científicos y herramientas open source para analistas, verificadores y expertos en ciberinteligencia. También ha estado en el origen de colaboraciones con otros organismos como el Foro contra las campañas de desinformación del Departamento de Seguridad Nacional o la Oficina de Ciencia y Tecnología del Congreso de los Diputados, que asesora en la toma de decisiones políticas en base a datos científicos.

Estructura del proyecto. Foto: David Arroyo.
Continuidad en nuevas iniciativas europeas y nacionales
La solidez metodológica y tecnológica de XAI-Disinfodemics ha abierto la puerta a ampliar esta línea de investigación en proyectos actualmente en marcha que buscan prevenir amenazas emergentes. Es el caso del proyecto Safehorizon, cuyo objetivo es la detección, análisis y prueba del crimen digital organizado, transformando grandes volúmenes de información dispersa en pruebas y evidencias utilizables por fuerzas y cuerpos de seguridad, fiscales y tribunales. Este proyecto cuenta con fondos europeos Horizon Europe, y ha logrado desarrollar una herramienta, Atenea, que pronto será presentada. También es el caso del proyecto regional CIRMA más centrado en evitar ataques por suplantación de personas o Human Spoofing.