Un intento de estafa con deepfake usó la voz del CEO de Ferrari con malas intenciones. Así acabó la historia
La IA puede causar importantes estragos en las grandes empresas por uso fraudulento. El último caso conocido ha afectado a una marca de coches, y no una cualquiera. Así ha tenido que lidiar un directivo de Ferrari contra un intento de estafa.
6 min. lectura
Publicado: 29/07/2024 15:00
Cuando hablamos de Inteligencia Artificial en el panorama automovilístico, podemos referirnos a varias aplicaciones ya usadas en la actualidad: en los asistentes virtuales a bordo, en las propias fábricas de coches para mejorar los patrones de calidad, en la investigación del uso de nuevos materiales potenciales en, por ejemplo, baterías y energías renovables…
Sin embargo, estaremos todos de acuerdo en que la IA tiene un apartado un tanto oscuro. Es una tecnología que se presta mucho al engaño, a la estafa y al fraude, empleando aplicaciones cada vez más perfeccionadas que permiten manipular imágenes, vídeos e incluso voces. Justo esto último es lo que ha sucedido en el seno del fabricante italiano Ferrari.
La historia tiene su aquél, como hemos podido saber a través de la información compartida por Bloomberg. El protagonista real ha sido un directivo de la marca; el protagonista 'irreal' no ha sido otro que el propio CEO de Ferrari, Benedetto Vigna.
Así intentaron estafar a un directivo de Ferrari
El protagonista de nuestra historia empezó a recibir mensajes inesperados a su WhatsApp una mañana de este mes de julio. Se trataba, supuestamente, del propio CEO de Ferrari, Benedetto Vigna, pero no desde su teléfono particular, sino desde otro desconocido. Eso sí, con una foto del jefazo de la marca como foto de perfil.
«Oye, ¿te enteraste de la gran adquisición que estamos planeando? Podría necesitar tu ayuda», «Prepárate para firmar el acuerdo de confidencialidad que nuestro abogado te enviará lo antes posible. El regulador del mercado italiano y la Bolsa de Milán ya han sido informados. Mantente preparado y, por favor, sé extremadamente discreto» fueron algunos de los mensajes que recibió.
El siguiente nivel del intento de fraude ya fue una llamada telefónica en la que los estafadores emplearon una voz del propio Benedetto Vigna creada con Inteligencia Artificial. Un deepfake en toda regla con la que suplantaron su identidad en una llamada en vivo, con una voz muy convincente del CEO de Ferrari, incluido su acento del sur de Italia.
En la conversación, el supuesto Vigna decía que estaba utilizando otro teléfono móvil porque necesitaba discutir algo confidencial, relacionado con unos acuerdos en los que se podrían enfrentar a ciertos inconvenientes relacionados con China. Y aquí estuvo la clave: se requería realizar una transacción de divisas, no especificada.
El directivo de Ferrari ya empezaba a sospechar con la situación, sobre todo con las entonaciones mecánicas que notaba en la voz falseada. Algo muy habitual en las creaciones deepfake. Su reacción fue genuina: «Lo siento, Benedetto, pero necesito identificarte», y lanzó una pregunta que provocó que la llamada terminase al instante y de forma abrupta.
Fue una pregunta personal, algo que solo el directivo y Vigna conocían: ¿cómo se titulaba el libro que Vigna le había recomendado unos días antes? Así se puso fin a un intento de estafa que ya está investigando Ferrari de forma interna.
Otros casos de intento de estafa por IA
No resulta extraño ver casos así, y es algo que irá creciendo con el paso de los años, según la tecnología de IA vaya mejorando. «Este año estamos viendo un aumento en el número de delincuentes que intentan clonar voces usando IA», comenta Rachel Tobac, directora ejecutiva de la empresa de capacitación en ciberseguridad SocialProof Security.
«Es solo cuestión de tiempo y se espera que estas sofisticadas herramientas de deepfake basadas en inteligencia artificial se vuelvan increíblemente precisas», alerta Stefano Zanero, profesor de ciberseguridad en el Politécnico de Milán de Italia.
Este mismo año una multinacional perdió 26 millones de dólares por una estafa contra sus empleados en Hong Kong, usando también una tecnología deepfake cada vez más convincente y amenazante. Esto está obligando también a muchas empresas a formar a sus empleados para que no caigan en la trampa.
El directivo de Ferrari puede haber dado con una clave importante: recurrir a 'contraseñas' personales entre las personas que contengan información que solo las personas implicadas conozcan.