Un empleado de una firma de ingeniería británica participó en una llamada de video rutinaria con su director financiero y 5 colegas en 2024


Autorizó transferencias por 25.6 MILLONES DE DÓLARES basándose en lo que se discutió, pero lo que no sabía era que cada persona en esa llamada, además de él, era un deepfake de IA
La empresa era Arup. Una firma británica de diseño e ingeniería con 18,500 empleados en 34 oficinas
Todo este ataque comenzó con un solo correo electrónico
Un trabajador de finanzas en la oficina de Arup en Hong Kong recibió un mensaje que afirmaba ser del director financiero de la firma con sede en el Reino Unido
El correo hacía referencia a una "transacción secreta" que necesitaba ser procesada con urgencia y confidencialidad
El trabajador pensó que era un intento de phishing. Tenía razón en sospechar, pero luego los atacantes escalaron la situación
Lo invitaron a una videollamada para verificar que la solicitud era real. Él se unió esperando confirmar que era una estafa
El director financiero estaba en la llamada. También estaban varios otros colegas senior que él reconocía. Le saludaron por su nombre
Discutieron la transacción en detalle usando terminología interna de la empresa. Mencionaron proyectos en curso que solo los insiders conocerían
Sus rostros se movían de manera natural, sus voces sonaban exactamente correctas y tuvieron conversaciones reales entre ellos y con él
Dejó de sospechar y, siguiendo las instrucciones en la llamada, realizó 15 transferencias bancarias separadas por un total de HK$200 millones ($25.6 MILLONES) a cinco cuentas bancarias diferentes en Hong Kong en los días siguientes
El fraude solo fue descubierto cuando él hizo un seguimiento con la oficina central del Reino Unido sobre el proyecto. El verdadero director financiero nunca había oído hablar de la transacción. Los otros colegas en la llamada nunca habían estado en la llamada
Cada rostro en esa pantalla era un deepfake
La policía de Hong Kong investigó... Los atacantes habían creado deepfakes sofisticados de todos los ejecutivos recopilando videos y audios disponibles públicamente en conferencias en línea, reuniones virtuales de la empresa y llamadas de resultados
Arup tenía horas de videos públicos de su liderazgo
Los deepfakes no estaban pregrabados, se ejecutaban en tiempo real. Cada participante falso podía hablar, reaccionar, responder y participar en diálogos no guionados con la víctima
Los correos de phishing individuales se detectan todo el tiempo. Las llamadas telefónicas con clonación de voz tienen una tasa de éxito más alta, pero aún fallan cuando la víctima pide confirmación por escrito
Las videollamadas deepfake con múltiples personas resuelven ambos problemas a la vez. No puedes pedir verificación cuando ya estás verificando con tus propios ojos
En la misma investigación, la policía de Hong Kong descubrió una operación relacionada. Ocho tarjetas de identidad de Hong Kong robadas se usaron para hacer 90 solicitudes de préstamo y 54 registros de cuentas bancarias
Los deepfakes de IA lograron eludir los sistemas de reconocimiento facial en al menos 20 ocasiones para verificar esas identidades como legítimas
La tecnología ahora está lo suficientemente madura como para engañar tanto a la verificación humana (videollamadas) como a la verificación automática (reconocimiento facial KYC)
El director de información de Arup, Rob Greig, confirmó posteriormente que la firma ha sido víctima de ataques "que aumentan rápidamente" y estimó que el costo global del fraude habilitado por IA alcanzará los 40 MIL MILLONES DE DÓLARES para 2027
La pérdida de Arup fue de 25.6 millones de dólares por un solo trabajador de finanzas en una sola llamada. Es el fraude de deepfake más exitoso registrado públicamente
La investigación sigue abierta y no se han realizado arrestos. Los fondos se dispersaron en varias cuentas en horas de las transferencias y la mayoría ya ha sido lavado fuera del sistema bancario de Hong Kong
Para estar seguro, es mejor:
Pedir a la persona en la llamada que gire la cabeza y muestre su perfil completo, porque el modelo deepfake suele fallar en ángulos extremos
Pedirles que cambien la iluminación en su habitación, ya que los deepfakes tienen dificultades con cambios bruscos de luz
Pedirles que tomen un objeto aleatorio y lo muestren en cámara, ya que el modelo a menudo presenta fallos al integrar objetos reales en la cara sintética
Estas verificaciones funcionan hoy en día. No funcionarán por mucho más tiempo
La historia más grande es lo que este ataque demuestra sobre la próxima década de las finanzas corporativas
Cada ejecutivo de cada empresa pública tiene horas de videos grabados en YouTube, LinkedIn, llamadas de resultados y paneles de conferencias. Esa grabación es el conjunto de datos de entrenamiento para cualquier atacante que quiera crear un deepfake de ellos
Algo de lo que preocuparse
Ver original
post-image
post-image
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado