La nueva estafa del ‘fraude del CEO’ es tan sofisticada que es casi imposible de detectar

Hace unos meses, un alto directivo de Ferrari recibió un mensaje inesperado en WhatsAppEl remitente era nada menos que Benedetto Vigna, el CEO de la compañía. La foto de perfil mostraba a su superior frente al logo de la escudería y el tono de los mensajes transmitía cierta urgencia. Se avecinaba una operación confidencial importante, y le confirmaba que ya estaban avisados los reguladores y la bolsa italiana. Había que firmar un acuerdo de inmediato. Al principio, el empleado dudó. El número desde el que le escribían no le sonaba de nada, pero la situación estaba planteada con tal naturalidad que todo parecía correcto.

Horas después, llegó una llamada. Al otro lado de la línea, la voz de Vigna, con su acento característico del sur de Italia, insistía en no perder más tiempo. Al empleado algo no le encajaba y le lanzó una pregunta: cuál era el título del libro que le había recomendado hacía solo unos días. Tras varios segundos de silencio, la llamada se cortó. Ferrari había estado a un paso de convertirse en víctima de una estafa con tecnología deepfake, una estrategia fraudulenta cada vez más extendida en el mundo empresarial.

El llamado ‘fraude del CEO’ existe desde hace años. La técnica es bastante sencilla: un estafador se hace pasar por un jefe o un superior para convencer a un empleado de transferir dinero, compartir credenciales o facilitar información sensible. Pero lo que antes se hacía con correos electrónicos mal redactados ahora se ha sofisticado hasta niveles insospechados, muchas veces imposibles de detectar. Con el abaratamiento de las herramientas de inteligencia artificial, hoy basta con unos minutos de video o audio para clonar la voz y la imagen de un directivo. Los expertos en ciberseguridad lo llaman el fraude del CEO 2.0, una variante que multiplica la efectividad de las estafas tradicionales.

«Estamos viendo un aumento notable, principalmente porque se ha democratizado el acceso a este tipo de herramientas. Cualquier persona puede usarlas y han visto que es muy rentable suplantar la identidad de alguien», explica Josep Albors, experto en ciberseguridad y responsable de investigación de ESET España. Las cifras dibujan un panorama inquietante. Solo en EEUU se registraron más de 105.000 incidentes relacionados con deepfakes el año pasado, lo que equivale a un ataque cada cinco minutos. Y eso cuando la mayoría de los ataques nunca se hacen públicos, ya que muchas empresas temen el daño reputacional casi tanto como la pérdida económica. Deloitte calcula que, para 2027, la IA generativa podría costarle a la banca mundial hasta 40.000 millones de dólares.

Albors apunta a que, al contrario que en el pasado, en el que se mandaban archivos infectados a miles de empleados para ver quién era el pobre diablo que picaba y abría la puerta a los hackers, ahora se seleccionan a unos pocos objetivos de manera mucho más calculada. «Investigan a fondo la empresa, sus cuentas, para saber cuánto dinero pueden pedir. Se aprenden los turnos de los empleados, quién tiene autorización para hacer transferencias y quién va a estar de vacaciones o subido a un avión, incomunicado. Lo tienen todo estudiadísimo».

Algunas historias recientes muestran hasta qué punto se ha desdibujado la frontera entre lo real y lo falso. Un empleado de la firma de ingeniería británica Arup recibió varios correos de su supuesto director financiero pidiéndole que transfiriera una suma elevada. Temiendo que fuese un intento de phishing, pidió confirmación mediante una videollamada. Lo que vio en su pantalla disipó todas sus dudas: estaba su jefe y también varios compañeros de plantilla. Todos hablaban con naturalidad, todos lo saludaban como de costumbre. Convencido, autorizó una transferencia de 25 millones de dólares. Ninguno de los participantes en esa reunión existía, eran rostros y voces generados por IA.

Similar es la historia de LastPass, una de las empresas más reconocidas en gestión de contraseñas. Un día, un empleado empezó a recibir mensajes y notas de voz del CEO Karim Toubba a través de WhatsApp. La voz era inconfundible y la foto de perfil correspondía al directivo. Sin embargo, había detalles que chirriaban, como que le hubiera contactado por un medio tan informal, cuando todas las comunicaciones de la empresa se hacían por Teams. Cuando contrastó la situación con otros compañeros, quedó claro que estaba hablando con un impostor.

«Nos han llegado casos hasta de gente que entró a una videollamada y se encontró con su jefe y al abogado de la empresa, ambos listos para ‘firmar’ un contrato», relata Albors. El experto explica que en la mayoría de casos todo empieza contactando por mensaje o email a la víctima, generando una sensación de urgencia y pidiendo discreción. «Después de realizar una llamada, le suelen enviar para terminar de convencerlo una factura o un documento (que también está falsificado con IA) para que parezca legítimo y le piden que haga una transferencia. Cuando el dinero se envía, desaparecen».

Las estafas deepfake funcionan bien porque explotan algunos reflejos automáticos del cerebro: obedecer a la autoridad, confiar en un rostro familiar, reaccionar rápido ante una situación urgente. Si tu jefe te pide en medio de una reunión que apruebes una transferencia para cerrar un acuerdo histórico, ¿quién se atreve a decir que no? Además, los altos directivos son presas fáciles: sus charlas en conferencias, entrevistas en YouTube o apariciones en prensa ofrecen horas de material limpio para entrenar modelos de clonación de voz y video. Con apenas unos minutos, la IA ya puede replicar timbres, acentos y hasta los gestos más característicos.

La amenaza, además, ya no se limita al ámbito empresarial. El FBI ha alertado de estafas familiares en las que se clona la voz de un hijo para pedir ayuda urgente a los padres. Una mujer de 73 años transfirió dinero tras recibir una llamada de quien creyó que era su nieto, supuestamente detenido y sin recursos para pagar la fianza. Incluso en política se han visto casos recientes. Un deepfake de audio suplantando la voz del senador Marco Rubio llegó a contactar con ministros de Exteriores y gobernadores en Estados Unidos. En al menos 50 países, según el New York Times, se han utilizado estrategias similares para manipular procesos electorales.

Albors dice que él mismo ha sido víctima de una suplantación. Cuenta que un día alguien que intentó hacerse pasar por él llamó a la oficina donde trabaja. Su compañero, avispado, le preguntó qué tal estaban sus hijos y la respuesta le dio la señal de que se trataba de una estafa. Albors no tiene hijos. «Desde entonces siempre le digo a mi madre que desconfíe y pregunte cosas que solo los dos sabemos».

El propio Sam Altman, director ejecutivo de OpenAI, advierte de que el mundo está entrando en una «crisis del fraude». «Algo que me aterra es que todavía haya instituciones financieras que aceptan la huella de voz para mover grandes cantidades de dinero. Es una locura. La IA ha superado por completo la mayoría de los métodos de autenticación actuales, salvo las contraseñas». Y alertó de que, si bien su empresa no está desarrollando este tipo de herramientas de suplantación de identidad, es un desafío que el mundo pronto deberá enfrentar a medida que la IA evoluciona.

Una investigación realizada por la Universidad de Londres sugiere que los humanos solo pueden detectar el 73% de los deepfakes. La cosa se pone más fea desde que se ha empezado a utilizar tecnología GAN. En este tipo de modelos de IA, dos redes neuronales compiten para crear vídeos o audios de gran realismo. Una, llamada generadora, crea los contenidos falsos, mientras que la otra, llamada discriminadora, evalúa la veracidad del contenido generado. Este proceso continúa hasta que la primera produce contenidos tan realistas que la segunda ya no puede discernir si son falsos.

La dificultad para perseguir a los responsables es otro obstáculo. Los estafadores operan desde cualquier parte del mundo, ocultos tras redes imposibles de rastrear. Las leyes aún no se han adaptado a esta nueva dinámica y la mayoría de tribunales carecen de jurisprudencia para juzgar estos casos. Estimaciones de la ONU indican que decenas de miles de personas podrían estar «trabajando» como mano de obra en edificios de oficinas en el sudeste asiático, traficadas desde China, Vietnam y Camboya con engaños, tentadas por anuncios de empleo para ‘puestos de televenta’.

De momento, las recomendaciones de la policía suenan algo rudimentarias: pedir a los interlocutores que muevan la cabeza en una videollamada o que escriban en un papel una palabra en tiempo real. Estrategias útiles en algunos escenarios, pero cada vez menos eficaces frente a una tecnología que mejora a pasos agigantados. Startups de ciberseguridad están invirtiendo millones para crear filtros capaces de identificar voces clonadas o vídeos falsos. Algunas exploran llaves de seguridad físicas (FIDO2) para identificarse en los sistemas y autenticadores basados en comportamiento (como patrones de escritura o ubicación), mucho más difíciles de falsificar.

Para el experto todo pasa por algo más sencillo y protocolario: que cualquier operación bancaria tenga que ser aprobada por más de una persona. «Que haya un proceso en el que intervengan varios empleados ayudaría mucho a contener este tipo de ataques». Y, sobre todo, por desconfiar siempre. En este nuevo escenario, la diferencia entre caer en la trampa o librarse puede reducirse a un simple reflejo: parar un segundo, dudar y hacer la pregunta correcta. Justo lo que salvó a Ferrari.

Fuente: elconfidencial.com (8/9/25) pixabay.com

Sobre Tarraco 4506 artículos
Asesoría de empresas Gestoría Tarragona