¿Te imaginas recibir una videollamada de tu director general pidiéndote que apruebes una transferencia urgente?
Mueve la cabeza, gesticula, habla con su voz exacta y parece totalmente real.
Solo hay un problema: no es él.
Esto ya está ocurriendo. Los deepfakes —vídeos generados por inteligencia artificial que imitan rostros y voces humanas— se están convirtiendo en una de las herramientas favoritas de los ciberdelincuentes.
¿Qué son los deepfakes?
El término proviene de deep learning (aprendizaje profundo) y fake (falso).
Mediante redes neuronales y entrenamiento con imágenes y audios reales, la IA es capaz de crear vídeos hiperrealistasdonde una persona parece decir o hacer algo que nunca ocurrió.
Hasta hace poco era cosa de películas. Hoy, basta con unos minutos de vídeo o de audio público (como los que hay en redes sociales o videollamadas grabadas) para generar imitaciones casi imposibles de distinguir.
Casos reales que ya han ocurrido
-
Directivo falso en Hong Kong (2024): un empleado transfirió más de 25 millones de dólares tras recibir una videollamada de su “director financiero”… que en realidad era un deepfake.
-
Voz clonada de un CEO: ciberdelincuentes usaron un audio generado por IA para ordenar a un empleado enviar fondos a una cuenta fraudulenta.
-
Deepfakes políticos y mediáticos: se difunden vídeos manipulados de figuras públicas diciendo cosas que jamás pronunciaron, afectando reputaciones y decisiones electorales.
-
Estafas de soporte técnico: se usan vídeos o avatares falsos para convencer a las víctimas de instalar software o entregar contraseñas.
-
Candidatos falsos en entrevistas: delincuentes usaron deepfakes en videollamadas para hacerse pasar por aspirantes a empleo y acceder a datos corporativos sensibles.
Proveedor bancario simulado: un directivo británico transfirió más de 500 000 £ tras una videollamada con un “proveedor” cuya cara y voz eran falsas.
Influencers clonados: se enviaron vídeos falsos de figuras conocidas pidiendo colaboraciones comerciales; todo era contenido generado por IA.
Familiares suplantados: víctimas recibieron llamadas o vídeos de “hijos” o “nietos” con voces clonadas pidiendo dinero urgente.
¿Por qué funcionan tan bien?
Porque apelan a la autoridad y la urgencia, los dos factores psicológicos más explotados por los estafadores.
Si la persona que ves y escuchas parece ser tu jefe o un cliente importante, y además te dice que “es urgente”, es fácil bajar la guardia.
Los deepfakes mezclan tecnología avanzada con ingeniería social, y eso los hace peligrosamente convincentes.
Cómo protegerte
-
Verifica siempre por otro canal.
Antes de actuar ante una orden inusual, confirma con una llamada, mensaje o reunión presencial. -
Establece protocolos internos claros.
Define límites de autorización para pagos o acceso a datos, incluso si las órdenes parecen venir “de arriba”. -
Forma a tu equipo.
Cuanto más sepan tus empleados sobre estas técnicas, más difícil será engañarlos. -
Utiliza autenticación multifactor (MFA).
Aunque roben una identidad visual o de voz, no podrán acceder sin el segundo factor. -
Desconfía de la urgencia.
La presión del tiempo es el mejor amigo del fraude.
Te ayudamos a blindar a tu equipo
En OptimalPyme te enseñamos a reconocer señales de manipulación digital, establecer protocolos internos seguros y entrenar a tu equipo frente a deepfakes, phishing y otras amenazas modernas.
No esperes a que te llamen con la cara (falsa) de tu jefe.
Forma a tu equipo hoy y reduce el riesgo mañana.
— CEO de Optimalpyme







