Organizaciones internacionales reportan un incremento significativo de deepfakes utilizados como propaganda, dificultando la verificación periodística y la difusión de información.
La organización internacional Article 19 y diversos observadores digitales reportaron un incremento masivo en la circulación de videos generados por Inteligencia Artificial en el marco del conflicto en Medio Oriente. Los informes indican que se utilizaron herramientas generativas para producir pruebas falsas de ataques militares.
Especialistas en seguridad digital detectaron que la sofisticación de estos contenidos, conocidos como deepfakes, alcanzó niveles que dificultan la distinción inmediata entre registros reales y simulaciones. Según las fichas técnicas, estas piezas audiovisuales mostraron supuestos bombardeos y declaraciones de líderes políticos que no sucedieron.
La distribución de estos materiales se realizó mediante plataformas de mensajería cerrada y cuentas automatizadas de X y TikTok. Ante esta situación, Meta instó a las plataformas de la compañía a etiquetar de forma agresiva todo el contenido producido o alterado por la IA. La recomendación incluyó la implementación de marcas de agua digitales y metadatos que permitan el rastreo de los orígenes de los archivos.
Meta subrayó que la desinformación afectó a los usuarios y la labor de los periodistas independientes en la zona de conflicto, quienes debieron someter cada video a procesos de verificación. Esta capa de validación demoró la difusión de noticias urgentes.
El informe presentado por ARTICLE 19 mostró que los corresponsales en el terreno enfrentaron dificultades para que sus registros auténticos fueran aceptados como verídicos por la audiencia. El flujo de propaganda algorítmica generó un entorno de escepticismo.
La organización puntualizó que el uso de la tecnología también incluyó la clonación de voces para emitir órdenes de evacuación falsas. Esta táctica provocó desplazamientos innecesarios de civiles y caos urbano.
