No data was found

Tecnología de video firmado: La nueva defensa contra los deepfakes

La expansión acelerada de los ‘deepfakes’ y la sofisticación de la inteligencia artificial (IA) han generado un escenario de incertidumbre donde diferenciar la realidad de la ficción es cada vez más complejo. Ante este reto, herramientas innovadoras como el sistema de vídeo firmado desarrollado por Axis Communications emergen como una solución clave para certificar la legitimidad de los contenidos desde el preciso instante de su grabación, una característica vital en procesos legales.

El contexto digital actual está inundado de aplicaciones de IA capaces de alterar fotos, audios y secuencias de vídeo con un realismo asombroso. Esta evolución tecnológica ha dejado a los ciudadanos en una posición vulnerable, dificultando la tarea de distinguir qué es auténtico y qué ha sido generado de forma sintética mediante algoritmos avanzados.

Si bien estas capacidades de generación de vídeo hiperrealista poseen vertientes positivas en áreas como el entretenimiento o la industria de los videojuegos, su contraparte negativa es la proliferación de los ‘deepfakes’. Estos contenidos manipulados buscan suplantar identidades, haciendo que personas reales parezcan realizar acciones o emitir declaraciones que jamás sucedieron en la vida real.

Generalmente, el uso de estos vídeos tiene propósitos fraudulentos o maliciosos, aprovechando la suplantación de identidad para engañar a la opinión pública o a individuos específicos. La gravedad de este fenómeno se refleja en los datos: según el informe ‘Seguridad en la edad de la IA’ de Telefónica, publicado en 2025, la presencia de ‘deepfakes’ se disparó un 550 por ciento entre los años 2019 y 2023.

Cifras alarmantes sobre la manipulación digital

Las estadísticas que rodean esta problemática son contundentes. Un análisis de la firma de seguridad DeepStrike revela que el volumen de archivos detectados como ‘deepfakes’ pasó de 500.000 en 2023 a una cifra récord de 8 millones durante el año 2025. En contraste con este avance tecnológico, la capacidad de los seres humanos para identificar estos engaños visuales es alarmantemente baja, situándose en apenas un 24,5 por ciento de efectividad.

Esta brecha de detección subraya la urgencia de implementar sistemas que permitan autenticar si un material audiovisual es fidedigno. Esta necesidad es crítica en sectores donde la integridad de la información no admite dudas, tales como las fuerzas de seguridad, las instituciones judiciales y el ámbito corporativo.

En respuesta a esta demanda, Axis Communications, líder en soluciones de videovigilancia, ha presentado una tecnología de vídeo firmado diseñada específicamente para la verificación forense. Se trata de un método que blinda criptográficamente la grabación en su origen, permitiendo que las pruebas presentadas en un juicio sean totalmente confiables.

Alberto Alonso, responsable del Programa de Ingeniería, Ciberseguridad y Cumplimiento en Axis Communications para Iberia, detalla que este sistema garantiza que el contenido no ha sufrido modificaciones desde que fue captado por el sensor de la cámara.

Autenticidad garantizada desde el hardware

La arquitectura de esta solución radica en la plataforma de ciberseguridad Axis Edge Vault. Este componente inserta una firma criptográfica única en el flujo de datos del vídeo mientras se está grabando. De este modo, se genera una evidencia técnica irrefutable de que el material no ha sido editado ni alterado tras salir del dispositivo de captura.

«Firmar el vídeo dentro de la propia cámara en lugar de hacerlo más tarde durante el procesamiento constituye un valor diferenciador, ya que elimina cualquier duda de que el contenido haya podido ser editado después de su captura»

Alonso también precisó que esta tecnología «incorpora todo lo necesario para su verificación cuando se almacena y se visualiza, ya sea ‘online’ u ‘offline'». Además, uno de los puntos fuertes de este sistema es su naturaleza de código abierto, lo que promueve la transparencia y facilita que diversos actores puedan validar la legitimidad de las imágenes.

Gracias a este enfoque abierto, tanto cuerpos policiales como equipos legales y otros fabricantes de la industria pueden adoptar la herramienta. Esto les permite «inspeccionar el código utilizado para validar la autenticidad del vídeo», eliminando la dependencia de plataformas propietarias y cerradas para la comprobación de pruebas digitales.

Cumplimiento de estándares y marcos legales

La firma ha comunicado que este sistema se rige bajo los lineamientos del ONVIF (Open Network Video Interface Forum). Este estándar asegura que cada cámara de vigilancia posea una clave digital específica para firmar el material. Asimismo, ONVIF trabaja conjuntamente con la Coalition for Content Provenance and Authenticity (C2PA) para establecer normas globales sobre la integridad de los contenidos.

El cumplimiento de estos protocolos permite que la tecnología de Axis sea idónea para:

  • Procedimientos legales y juicios.
  • Investigaciones policiales de alta complejidad.
  • Gestión de incidentes de seguridad en empresas.

Esta capacidad de trazabilidad no solo es una ventaja técnica, sino que responde a las exigencias de los nuevos marcos regulatorios europeos, como el AI Act y la ley de gobernanza de IA de la Unión Europea. Estas normativas exigen el etiquetado obligatorio de contenidos creados con inteligencia artificial, lo que hace indispensable contar con métodos de verificación robustos.

Aunque existen otras iniciativas de gigantes tecnológicos como Meta o Google (mediante herramientas como SynthID y marcas de agua invisibles), la propuesta de Axis actúa como un complemento vital. Mientras otros buscan marcar lo artificial, Axis se enfoca en «verificar la realidad».

Para concluir, Alberto Alonso enfatizó la importancia de este avance: «Creamos un ‘sello de autenticidad’ para los acontecimientos del mundo real. En un contexto legal o forense, esta validación positiva no sólo es útil, sino esencial para mantener la confianza en las pruebas digitales».

Fuente: Fuente

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER