La organización internacional Article 19 y diversos observadores digitales denunciaron un incremento masivo en la circulación de videos generados por Inteligencia Artificial en el marco del conflicto en Medio Oriente. Los reportes indicaron que se utilizaron herramientas generativas para producir pruebas falsas de ataques militares.
Los especialistas en seguridad digital detectaron que la sofisticación de estos contenidos, conocidos como deepfakes, alcanzaron niveles que dificultan la distinción inmediata entre registros reales y simulaciones.
La tiranía de las empresas de inteligencia artificial amenaza al periodismo
Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Según las fichas técnicas, estas piezas audiovisuales mostraron supuestos bombardeos y declaraciones de líderes políticos que no sucedieron. La distribución de estos materiales se realizó mediante plataformas de mensajería cerrada y cuentas automatizadas de X y TikTok.
Las medidas de Meta ante la propagandas de IA
Frente a la gravedad de los hechos, Meta insto a las plataformas de la compañía a etiquetar de forma agresiva todo el contenido producido o alterado por la IA. La recomendación incluyó la implementación de marcas de agua digitales y metadatos que permitan el rastreo de los orígenes de los archivos.
Meta subrayó que la desinformación afectó a los usuarios y la labor de los periodistas independientes en la zona de conflicto, que debieron someter cada video a procesos de verificación. Esta capa de validación demoró la difusión de noticias urgentes.
El impacto de la desinformación en el periodismo de guerra
El informe presentado por ARTICLE 19 mostró que los corresponsables en el terreno enfrentaron dificultades para que sus registros auténticos fueran aceptados como verídicos por la audiencia. El flujo de propaganda algorítmica generó un entorno de escepticismo que benefició a los actores involucrados.
La organización puntualizó que el uso de la tecnología también incluyó la clonación de voces para emitir órdenes de evacuación falsas. Esta táctica provocó desplazamiento innecesarios de civiles y caos urbano.
