La incorporación de la inteligencia artificial en el ámbito de las agresiones cibernéticas ha modificado drásticamente el panorama de los fraudes digitales. Según diversos análisis técnicos, estas herramientas han convertido las estafas en amenazas automatizadas, difíciles de prever y con una complejidad de detección sin precedentes.
El empleo de modelos avanzados de IA permite a los criminales orquestar campañas de phishing, estafas corporativas y suplantaciones de identidad con un realismo tal que logra vulnerar la seguridad tanto de ciudadanos particulares como de grandes organizaciones. Esta evolución tecnológica no solo multiplica la frecuencia de las ofensivas, sino que genera un peligro latente de fugas de datos masivas y perjuicios económicos en todo el mundo.
La IA como motor de la nueva criminalidad informática
Desde finales de 2022, se ha registrado una tendencia donde los atacantes integran modelos de lenguaje de gran tamaño en sistemas de secuestro de información y estafas electrónicas. Un estudio realizado por la Universidad de Nueva York, bajo el proyecto denominado PromptLock, evidenció que la inteligencia artificial es capaz de automatizar íntegramente un ataque: desde la localización de archivos sensibles hasta la creación de mensajes de extorsión personalizados.
A pesar de que PromptLock se desarrolló en un entorno controlado, diversos especialistas alertan que este tipo de tecnologías ya están siendo utilizadas por ciberdelincuentes en entornos reales.

Aparte de las herramientas comerciales, existe una inquietud creciente por el uso de modelos de código abierto que carecen de controles de seguridad. Estas versiones pueden ser alteradas con facilidad para generar códigos dañinos y evadir barreras defensivas. Ashley Jess, quien fuera especialista en el Departamento de Justicia de Estados Unidos, indica que los atacantes optan por estos sistemas abiertos porque les brindan la libertad de ajustar sus tácticas sin ninguna restricción técnica.
Por otro lado, investigaciones de la firma Anthropic revelan que la IA ha logrado automatizar hasta el 90% de las tareas en maniobras de espionaje digital, aunque la definición de los objetivos finales sigue dependiendo de la intervención humana. Sobre este cambio, Jacob Klein, director de inteligencia de amenazas en la mencionada empresa, afirmó:
“Estamos entrando en una era donde la barrera para operaciones cibernéticas sofisticadas ha caído y el ritmo de los ataques crecerá más de lo que muchos están preparados para afrontar”
.
El avance del phishing y las estafas a medida
El phishing es uno de los sectores con mayor impacto. Debido a plataformas como ChatGPT, se estima que al menos el 50% del correo basura que circula actualmente es producto de la inteligencia artificial. Entre los meses de abril de 2024 y abril de 2025, la compañía Microsoft consiguió neutralizar cerca de 4.000 millones de dólares vinculados a transacciones fraudulentas, un fenómeno impulsado notablemente por contenidos generados mediante IA.

Adicionalmente, reportes académicos de la Universidad de Columbia y la Universidad de Chicago señalaron que, para el cuarto mes de 2025, los ataques dirigidos vía correo electrónico creados con IA aumentaron su incidencia en más de un 14% comparado con el periodo anterior.
La precisión en la personalización es alarmante: los perpetradores logran segmentar a sus víctimas y construir mensajes con datos sumamente creíbles, lo que inutiliza muchos filtros de seguridad tradicionales. Lorenzo Cavallaro, catedrático del University College London, advirtió que:
“La probabilidad de que los ciberataques sean cada vez más comunes y efectivos ya no es una posibilidad remota, sino una realidad”
.
Deepfakes: el nuevo nivel de manipulación visual y sonora
Las falsificaciones digitales realistas, o deepfakes, representan un desafío crítico. La capacidad de replicar voces y rostros de manera automatizada facilita estafas de gran envergadura. Un caso emblemático ocurrió en la empresa Arup, donde un trabajador realizó una transferencia por 25 millones de dólares tras participar en una reunión virtual con representaciones digitales falsas de los altos mandos de la compañía.

El experto Henry Ajder sostiene que la reducción de costos y la mejora continua de estas herramientas aseguran su proliferación. Según sus palabras:
“Si hay dinero por ganar y la gente sigue cayendo en la trampa, los delincuentes continuarán explotando la IA”
.
Estrategias de defensa y mitigación de riesgos
Pese a la sofisticación de los ataques, los profesionales en ciberseguridad subrayan que las medidas de protección tradicionales siguen siendo esenciales. Los sistemas de detección y el filtrado de correos bloquean todavía una gran parte de las amenazas actuales.
Billy Leonard, integrante del Grupo de Análisis de Amenazas de Google, resalta que la colaboración y el intercambio de información sobre nuevas modalidades de ataque son vitales para robustecer la seguridad global. En esta misma línea, Microsoft analiza diariamente más de 100 billones de señales apoyándose en la propia IA para detectar patrones sospechosos o comportamientos inusuales.
Si bien la inteligencia artificial es utilizada para el mal, también es una aliada fundamental en la defensa, permitiendo identificar anomalías de forma veloz. No obstante, los especialistas advierten que la vigilancia constante y la actualización permanente de los sistemas son las únicas vías para reducir la exposición ante una tecnología que no deja de evolucionar.
Fuente: Fuente