La expansión de videos falsos creados mediante inteligencia artificial está generando desafíos sin precedentes para quienes deben validar información en entornos de guerra. De acuerdo con las precisiones de Giancarlo Fiorella, director de investigación y formación de Bellingcat, este fenómeno ha experimentado una aceleración notable en contextos recientes como la pugna entre Irán, Israel y Estados Unidos. En la actualidad, cualquier individuo con conexión a la red posee la capacidad de elaborar y propagar material audiovisual ficticio de manera masiva.
Autenticar datos en los conflictos bélicos contemporáneos exige la aplicación de métodos manuales exhaustivos y el apoyo de testimonios de personas en el terreno. Esto se debe a la creciente sofisticación de las piezas audiovisuales manipuladas y a los sistemas de recompensas de las plataformas digitales. Únicamente a través de análisis minuciosos, el uso de recursos como imágenes satelitales y el compromiso del periodismo independiente se logra establecer una línea clara entre los hechos reales y la desinformación, una tarea que se vuelve más compleja ante el progreso tecnológico y la intervención de intereses tanto estatales como privados.
“Definitivamente lo que estamos viendo con el conflicto de Irán es algo nuevo. En otros conflictos, como por ejemplo el de entre Israel y Palestina, el conflicto en Ucrania, el conflicto en Siria anterior a ese, siempre salieron muchos videos grabados por personas que viven en esos sitios. Estos videos siempre salen a la luz a través de la Internet”
Sobre el volumen de contenido actual, el especialista de Bellingcat puntualizó que lo que ocurre con frecuencia en la crisis de Irán es la aparición de múltiples videos totalmente fraudulentos. Estos son desarrollados mediante herramientas generativas de inteligencia artificial que están al alcance de todo el mundo.
Fiorella hizo énfasis en que la brecha técnica entre las grabaciones reales y las alteradas se ha acortado drásticamente durante el último año. El experto señaló que estas aplicaciones ya no exigen destrezas técnicas especializadas: “Cualquier persona con acceso a internet puede crear videos muy realísticos, pero que son completamente falsos. Eso es algo que se está viendo con muchísima más frecuencia en este conflicto, entre los Estados Unidos, Israel e Irán, mucho más que se ha visto antes”.
Incentivos en redes sociales y la influencia de Estados
El investigador detalló que las plataformas digitales poseen mecanismos que premian la viralidad, lo que incentiva la difusión de contenido falso. Estos incentivos son visibles en redes como X, donde se otorgan pagos basados en la interacción que recibe un mensaje, ya sea mediante likes o retweets. Para el especialista, esto constituye un motor poderoso para fabricar videos impactantes o sorprendentes que logren captar la atención del público de forma inmediata.
A este panorama se suma la posible participación de gobiernos. Fiorella mencionó que existe la probabilidad de que actores de Estado estén involucrados en la creación de propaganda. No obstante, basándose en lo observado recientemente en el caso de Irán, considera que la motivación económica de los usuarios individuales para generar interacciones tiene un peso significativo en la proliferación de estos clips.
Metodología de verificación en escenarios bélicos
El proceso de validación descrito por el profesional requiere de un examen minucioso. Para ello, se emplea una técnica denominada geolocalización. Este método consiste en analizar un video para identificar y listar cada elemento visible, tales como edificios, tipos de carreteras, vegetación y cualquier otro detalle específico presente en la escena.
Posteriormente, con esa base de datos, los investigadores utilizan herramientas de visualización espacial: “Después, con esos detalles, podes acceder a una plataforma de imagen de satélite, como por ejemplo Google Maps, que es gratuita. Y empiezas a comparar lo que ves en el video con las imágenes satelitales de supuestamente ese sitio”, detalló Fiorella.
Sin embargo, un obstáculo persistente es que las redes sociales suelen suprimir la metadata original de los archivos, que es fundamental para confirmar su autenticidad. Aunque algunas herramientas de IA colocan marcas de agua indicando que fueron creadas por sistemas como Sora o Gemini, los creadores de desinformación suelen recortar o eliminar estas etiquetas para engañar a la audiencia.

Al comparar la situación actual con años previos, el experto resaltó la evolución de los algoritmos. Mientras que hace más de un año estas plataformas cometían errores evidentes o alucinaciones visuales que permitían detectar el engaño fácilmente, hoy en día el nivel de realismo es muy superior.
El impacto en el periodismo y la percepción pública
La difusión de estas imágenes sintéticas está alterando la forma en que el público percibe la realidad. Según el director de Bellingcat, existe una preocupación válida sobre la posibilidad de que la gente crea en sucesos que nunca ocurrieron. No obstante, advierte de un peligro aún mayor: el escepticismo generalizado.
“Yo creo que lo más dañino y lo que estamos viendo con más frecuencia es lo opuesto, que porque la gente sabe que esta tecnología existe, no van a creer fotos y videos que sí son reales. Las cosas que sí son reales, la gente termina no creyéndolas”
Finalmente, sobre la responsabilidad gubernamental, Fiorella sostuvo que la inversión en periodismo independiente es una herramienta histórica y efectiva para contrarrestar la mentira. Afirmó que cuando un Estado apoya la labor periodística, está contribuyendo a la búsqueda de la verdad objetiva frente a los acontecimientos globales, lo cual es esencial para combatir la desinformación en todas sus formas.
Fuente: Fuente