La expansión masiva de materiales producidos mediante Inteligencia Artificial (IA) ha provocado que la identificación de fraudes y manipulaciones digitales se convierta en un reto de alta complejidad, afectando de manera distinta según el rango etario. Una evaluación reciente llevada a cabo por The Care Side, una organización australiana especializada en cuidados a domicilio, señala que las personas menores de 29 años poseen una mayor destreza para reconocer los deepfakes, mientras que los individuos mayores de 65 años apenas logran identificar correctamente la mitad de los casos, lográndolo en muchas ocasiones únicamente por azar.
Vínculo entre la edad y la destreza digital en la detección
El estudio realizado por The Care Side contó con la participación de más de 3.000 ciudadanos y determinó que la capacidad para diferenciar contenidos reales de los generados por IA está estrechamente ligada a la edad y la capacitación tecnológica. Mientras que los perfiles más jóvenes logran señalar exitosamente ocho de cada 10 engaños, los adultos mayores enfrentan obstáculos significativos. Se estima que las personas mayores de 65 años solo identifican poco más del 50% de las falsificaciones, y en gran parte de estos aciertos, el resultado proviene de la casualidad y no de un proceso de análisis consciente.
A pesar de estas cifras, especialistas como Hervé Lambert, representante de Panda Security, argumentan que el peligro no se restringe a un solo grupo demográfico. Lambert explicó a El País que factores como la falta de atención y el perfeccionamiento de las ciberamenazas ponen en riesgo a todos los internautas. Según el experto, la educación digital es el pilar fundamental para la protección, independientemente de los años que tenga el usuario.

“Creo que es un error limitar el problema a una cuestión generacional. La IA es muy inteligente y sabe perfectamente que hay contextos y momentos del día donde vamos a tener muchísima menos concentración en una cosa y eso lo utiliza muy bien”, sostuvo.
Por otro lado, Marti DeLiema, vinculada al Centro de Envejecimiento Saludable e Innovación de la Universidad de Minnesota, coincide en que el avance de la IA ha transformado por completo el escenario de las estafas para la sociedad en su conjunto. En una línea similar, Josep Albors, de ESET España, indica que las redes criminales están aprovechando estas tecnologías para estructurar campañas de fraude sumamente persuasivas, valiéndose de videos, audios e imágenes que resultan casi imposibles de diferenciar de la realidad.
“Estamos viendo videos muy bien en generados con unas voces idénticas a las personas que suplantan”, dijo Albors durante la última edición de los premios de comunicación de su compañía global de ciberseguridad.
Guía para identificar fraudes generados con IA
Ante la sofisticación de los deepfakes, es vital examinar minuciosamente ciertos elementos en los distintos formatos digitales. En el caso de los mensajes de texto, es motivo de sospecha recibir saludos muy genéricos, notar un tono de urgencia excesivo, o encontrar solicitudes de transferencias y datos privados sin una validación previa, además de errores en la sintaxis.

Cuando se trata de imágenes, las señales de advertencia suelen ser:
- Simetrías atípicas en las facciones del rostro.
- Manos que lucen borrosas o deformadas.
- Texturas en la piel demasiado perfectas o suaves.
- Fondos incoherentes con el sujeto principal.
En cuanto a los audios, las grabaciones artificiales suelen manifestar ritmos de habla robóticos, pausas que no se sienten naturales, variaciones bruscas en la entonación, ruidos de fondo inusuales o una evidente falta de coordinación en las respuestas. Por su parte, los videos pueden presentar movimientos en la cara que no coinciden con el habla, una desincronización entre el parpadeo y el movimiento de los labios, o gesticulaciones que carecen de esencia humana.
La importancia de la capacitación y el uso de herramientas
Expertos en seguridad recalcan que la vulnerabilidad ante los deepfakes y estafas con IA nace principalmente de la falta de concienciación y formación técnica, especialmente cuando los usuarios operan bajo estrés o realizando múltiples tareas.

Si bien se han desarrollado aplicaciones para detectar si la IA ha intervenido en un contenido, Hervé Lambert puntualiza que estas soluciones solo reducen la probabilidad de caer en el engaño, pero no lo erradican totalmente. Debido a esto, se recomienda la educación basada en casos reales para fortalecer la identificación de señales sospechosas. Asimismo, Josep Albors lamenta que muchos usuarios omitan el paso crítico de verificar la información en fuentes de confianza, lo que dispara las posibilidades de ser estafado.
¿En qué consiste un deepfake y cuál es su peligro?
Un deepfake se define como una pieza de contenido digital que ha sido manipulada a través de inteligencia artificial avanzada. Esta tecnología utiliza algoritmos de aprendizaje automático para calcar y superponer los rostros, el habla o los movimientos de una persona sobre un soporte audiovisual preexistente, logrando una apariencia de autenticidad extrema.
Esta herramienta permite elaborar simulaciones muy persuasivas donde un individuo parece actuar o declarar cosas que jamás sucedieron. Aunque tiene usos legítimos en el entretenimiento, su auge causa alarma por su capacidad para propagar desinformación, facilitar suplantaciones de identidad y potenciar fraudes cibernéticos, convirtiéndose en una amenaza directa para la seguridad y la confianza en el entorno digital.
Fuente: Infobae