← Volver a Estafas & phishing

Defienda su organización contra estafas empresariales

Deepfakes y ataques mejorados por IA

La tecnología de IA ha revolucionado el cibercrimen, permitiendo a los atacantes crear audio, video y texto deepfake convincentes a escala. El aumento del 194% en fraude de IA y el aumento del 3.000% en deepfakes representan un cambio de paradigma en la sofisticación de la ingeniería social.

La escala del problema

Estadísticas 2024:

  • Aumento del 194% en fraude habilitado por IA
  • Aumento del 3.000% en incidentes de deepfake
  • 1 billón de dólares de costo proyectado globalmente para 2027
  • Clonación de voz: 3 segundos de audio = 85% de coincidencia
  • Video deepfake en tiempo real ahora posible
  • 40% de ataques BEC usan contenido generado por IA

Capacidades de ataque de IA

Clonación de voz:

  • Muestra de audio de 3 segundos suficiente
  • Precisión de 85%+ en coincidencia de tono
  • Conversación en tiempo real posible
  • Puede clonar cualquier voz de grabaciones públicas

Video deepfakes:

  • Manipulación de video en tiempo real
  • Intercambio de rostros en llamadas de video
  • Sincronización de labios para coincidir con audio falso
  • Alta calidad desde hardware de consumidor

Generación de texto:

  • Correos de phishing con gramática perfecta
  • Respuestas conscientes del contexto
  • Imitación de personalidad
  • Capacidad multiidioma

Generación de imágenes:

  • IDs y documentos falsos
  • Fotos de perfil para personas falsas
  • Capturas de pantalla manipuladas
  • Evidencia realista pero fraudulenta

Casos del mundo real

Deepfake de Arup de 25 millones (2024):

  • Llamada de video con CFO y ejecutivos falsos
  • Deepfakes en tiempo real de múltiples personas
  • Empleado de finanzas autorizó 15 transacciones
  • Orquestación sofisticada de IA

Fraude de clonación de voz de CEO:

  • Voz de CEO clonada por IA llamando al CFO
  • Solicitaba transferencia urgente
  • Coincidencia de voz perfecta engañó al destinatario
  • Detenido solo por procedimientos de verificación

Desafíos de detección

Por qué los deepfakes son difíciles de detectar:

  • Calidad mejorando exponencialmente
  • Generación en tiempo real ahora posible
  • Herramientas de detección rezagadas respecto a herramientas de creación
  • Sentidos humanos insuficientes
  • Contexto y situación importan más que tecnología

Indicadores sutiles:

  • Ligeros retrasos o fallas de audio
  • Movimiento de ojos o parpadeo no natural
  • Iluminación o sombras inconsistentes
  • Artefactos de fondo
  • Timing de expresión emocional desajustado
  • Pero estos están desapareciendo rápidamente

Procedimientos de verificación

Para llamadas de voz:

  • Hacer preguntas personales que solo la persona real conoce
  • Solicitar devolución de llamada en número conocido
  • Usar palabras en código de desafío-respuesta
  • Verificar a través de canal separado
  • Escuchar patrones de habla no naturales o retrasos

Para llamadas de video:

  • Pedir a la persona que realice acciones específicas
  • Solicitar que sostenga artículo con la fecha de hoy
  • Hacer preguntas inesperadas
  • Cambiar a verificación en persona o por teléfono para decisiones de alto riesgo
  • Usar verificación multipersona

Para todas las solicitudes de alto riesgo:

  • Verificación fuera de banda obligatoria
  • Múltiples métodos de verificación
  • No confiar solo en ver/escuchar
  • El contexto importa (por qué esta solicitud, por qué ahora)

Estrategias de protección

Defensas técnicas:

  • Herramientas de detección de deepfake (efectividad limitada)
  • Autenticación multifactor
  • Firmas digitales para comunicaciones
  • Procedimientos de verificación grabados
  • Detección de anomalías potenciada por IA

Defensas procedimentales:

  • Protocolos de verificación que no pueden evadirse
  • Preguntas de desafío cambiadas regularmente
  • Palabras en código para operaciones sensibles
  • Aprobación multipersona para grandes transacciones
  • Períodos de espera previenen manipulación en tiempo real

Defensas culturales:

  • Conciencia de que los deepfakes existen y son buenos
  • Permiso para verificar incluso al CEO
  • “Confiar pero verificar” como predeterminado
  • Reportar deepfakes sospechados alentado

La carrera armamentista

Ventajas del atacante:

  • Herramientas de IA democratizadas (fáciles de usar)
  • Calidad mejorando mensualmente
  • Generación en tiempo real lograda
  • Detección más difícil que creación

Estrategias del defensor:

  • Proceso sobre tecnología
  • Múltiples capas de verificación
  • Juicio humano mejorado por tecnología
  • Asumir compromiso posible
  • Integrar verificación en cultura

Puntos clave

  • Aumento del 194% en ataques de fraude habilitado por IA
  • Clonación de voz desde 3 segundos de audio
  • Deepfakes en tiempo real ahora posibles
  • Detección tecnológica insuficiente - el proceso importa
  • Verificación fuera de banda obligatoria para solicitudes de alto riesgo
  • Preguntas de desafío y palabras en código esenciales
  • Asumir que ver/escuchar no es suficiente - siempre verificar
  • Construir cultura donde la verificación se espera, no se cuestiona
Autor:
How To Use Internet
Última actualización:
30/11/2025