No data was found

Estafas corporativas con IA: clonan voces y rostros de directivos

La inteligencia artificial se ha transformado en un arma peligrosa dentro del ámbito empresarial. Cada vez más, los ciberdelincuentes recurren a deepfakes, clonación de voz y videollamadas falsas para suplantar a altos directivos y ejecutar transferencias millonarias de forma fraudulenta.

Uno de los episodios más emblemáticos ocurrió en enero de 2024, cuando un director financiero de la multinacional Arup autorizó pagos por 25 millones de dólares tras participar en una videollamada en la que creyó estar conversando con otros líderes de la compañía. En realidad, todos eran ficticios: los rostros, las voces y hasta los gestos habían sido generados mediante inteligencia artificial.

Este caso demuestra cómo está creciendo una modalidad de fraude cada vez más compleja. Según información del Federal Bureau of Investigation (FBI), las estafas de suplantación de ejecutivos, conocidas como Business Email Compromise (BEC), ocasionaron pérdidas por 2.770 millones de dólares en Estados Unidos durante 2024.

Un deepfake es utilizado como herramienta para cometer fraude digital mediante suplantación de identidad. (Imagen Ilustrativa Infobae)

A esto se suma un incremento vertiginoso de los deepfakes en el entorno corporativo. Especialistas en ciberseguridad indican que este tipo de fraudes se disparó un 3.000 % en el último año, impulsado por herramientas de inteligencia artificial capaces de replicar voces humanas con apenas 60 segundos de audio.

La amenaza también golpea a América Latina. De acuerdo con datos de ESET, el 27 % de las compañías de la región sufrió al menos un ciberataque durante el último año. En Argentina, la situación es especialmente crítica: el país aparece entre los diez con más credenciales robadas a nivel global, representando el 3,04 % del total mundial, según la firma Surfshark.

Adicionalmente, durante el primer semestre de 2025 se registraron más de 1.600 millones de intentos de ataque en el país. El tiempo promedio para solucionar una credencial expuesta alcanza los 94 días, un lapso que los ciberdelincuentes pueden aprovechar para ingresar a sistemas internos y ejecutar fraudes financieros.

Pablo García, BDM Cyber LATAM de TIVIT, explica que estos ataques suelen planificarse minuciosamente y combinan ingeniería social con herramientas avanzadas de inteligencia artificial.

Imagen que muestra un deepfake utilizado para suplantación en fraudes digitales a través de aplicaciones bancarias. (Imagen Ilustrativa Infobae)

Según el especialista, los delincuentes recopilan información pública disponible en plataformas como LinkedIn, redes sociales y comunicados corporativos para identificar quiénes autorizan pagos, cómo se comunican los ejecutivos y cuáles son sus rutinas laborales.

Con esos datos elaboran correos falsos, llamadas telefónicas con voces clonadas o incluso videollamadas con deepfakes que imitan de forma convincente a directivos reales de la empresa.

García advierte que este tipo de ataques, conocidos también como whaling, apuntan específicamente a ejecutivos de alto rango debido a la autoridad que poseen dentro de la organización.

“El fraude no explota fallas tecnológicas, explota procesos internos y la urgencia del día a día”, sostiene el especialista.

Los avances en inteligencia artificial hicieron que la generación de voces sintéticas y rostros falsos sea más accesible que nunca. Actualmente existen plataformas gratuitas capaces de recrear voces humanas con gran precisión utilizando pocos segundos de grabación.

La imagen muestra una pantalla con advertencias sobre la generación de deepfakes, acompañada de siluetas humanas y símbolos digitales de seguridad, como candados y escudos, que representan la preocupación por la privacidad y la integridad digital en la era de la inteligencia artificial. (Imagen Ilustrativa Infobae)

La calidad alcanzada por estas herramientas complica la detección de fraudes, especialmente en contextos donde las decisiones deben tomarse rápidamente o las comunicaciones ocurren de forma remota.

Recomendaciones para enfrentar la amenaza

Frente a este escenario, especialistas recomiendan reforzar protocolos internos de seguridad para reducir riesgos. Una de las medidas principales es implementar doble validación obligatoria en operaciones sensibles.

Esto significa que si un supuesto CEO solicita una transferencia urgente mediante correo o mensaje, el pedido debe confirmarse a través de una llamada realizada a un número previamente registrado y verificado por la empresa.

Otra recomendación clave es la segregación de funciones. Los expertos señalan que quien solicita una operación financiera no debería ser la misma persona encargada de aprobarla o ejecutarla.

Las deepfakes se han vuelto más personalizadas. (Imagen Ilustrativa Infobae)

También se insiste en la importancia de utilizar autenticación multifactor (MFA), debido a que muchas intrusiones comienzan con robo de credenciales corporativas.

El crecimiento de los deepfakes corporativos muestra cómo el cibercrimen está evolucionando hacia ataques cada vez más personalizados y dirigidos específicamente a las estructuras internas de las empresas.

Ante este panorama, los especialistas consideran fundamental que las compañías revisen constantemente sus mecanismos de validación, protocolos de emergencia y sistemas de autorización para evitar que una videollamada falsa termine provocando pérdidas millonarias.

Fuente: Infobae

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER