fbpx

DEEP FAKES, LA NUEVA SUPLANTACIÓN DE IDENTIDAD

En este artículo daremos una pequeña introducción a qué es uno Deep Fake y los riesgos que puede suponer.

El acrónimo de Deep Fake, surge de la descomposición de «Deep Learning» y de «Fake», copia falsa.

Un Deep Fake es cualquier video en el que la imagen o la voz de la persona, normalmente una persona relevante o una figura pública, han sido manipuladas utilizando software de inteligencia artificial para hacer que aquel vídeo modificado parezca real. Se basa en la suplantación de identidades mediante técnicas de Machine Learning.

Este uso de Machine Learning se puede usar tanto por el bien como para malas técnicas y cibercrimenes. Un claro ejemplo de un uso provechoso sería en el mundo del cine. Los Deep Fakes han aparecido desde hace ya unos años en la industria de Hollywood.

Esta técnica se ha usado en muchos casos cuando un actor no podía acabar la película o necesitaban que este actor acabas una larga saga. Un claro ejemplo fue la princesa Leia en la última película de Star Wars. A causa de su muerte, tuvieron que modificar la cara de otra actriz para plasmar la cara de la princesa Leia a la de esta.

También se ha podido crear una inteligencia artificial como Thispersondoesnotexist.com. Una web que crea caras en alta definición de personas que realmente no existen basadas en bases de datos de imágenes.

Por otro lado, los Deep Fakes, pueden tener un uso malicioso y pueden generar grandes escándalos dentro del mundo interconectado en el cual vivimos.

Cualquier vídeo que se filtre ahora de algún personaje público, podría afectar a la economía de nuestro mundo en cuestión de minutos.

Actualmente, ya se han dado casos de estafas y de suplantación de identidad con esta tecnología, como es el caso del conocido fraude del CEO, que consiste a suplantar la identidad de un directivo de alto cargo de una empresa (lo CEO, lo CTO, el director de finanzas, etc.) para engañar a un trabajador de un cargo más inferior para que realice una acción como realizar una transferencia urgente o enviar unos documentos con información sensible, con la presión que se cree que se pide por urgencia en nombre de un alto directivo.

También se han encontrado casos de suplantación de identidad de gerentes de bancos para engañar en un cliente porque realice una transferencia a una dirección que el atacante quiere.

Desde Light Eyes pedimos que se esté alerta de estos peligros, sobre todo actualmente en esta situación que las videollamadas se han convertido en algo tan esenciales.    

También te podría gustar:

BitmapCreated with Sketch.

Apúntate a nuestra newsletter

Recibirás las nuevas entradas al blog, recomendaciones de ciberseguridad y nuestras ofertas exclusivas.