El FBI dice que la gente está usando ‘deepfakes’ para solicitar trabajos a distancia y robar datos a las empresas al ser contratados

tecnologia aplicaciones panel

El FBI ha denunciado este martes intentos de suplantación de identidad por parte de ladrones que querían acceder a información delicada de empresas.

Una entrevista de trabajo remota para un trabajo en remoto: la nueva normalidad tras la pandemia. La empresa es una entidad financiera, y el puesto de trabajo es el de un desarrollador de software con acceso a información delicada de la entidad como los datos personales de los clientes.

Banner_frasco-suscripcion-800x250

Todo parece encajar. El supuesto candidato presenta unas experiencia y unas credenciales casi inmejorables, y cada respuesta que da a su entrevistador o entrevistadora a través de Teams, de Meet o de alguna otra aplicación para reuniones a distancia es mejor que la anterior.

Pero hay un problema: el candidato no existe. O, al menos, no como el entrevistador cree. Su imagen y su voz han sido creada ex profeso a través de tecnología deepfake por ladrones expertos en este tipo de herramientas para presentar ante la empresa en cuestión a un supuesto candidato ideal.

«La única forma de evitar una guerra nuclear desatada por una IA es no contar con ella»: una inteligencia artificial se muestra contraria a su propio desarrollo.

Credenciales

Su intención no es otra que la de, una vez aceptado el trabajo, tener acceso a través de las credenciales de este falso empleado a la clase de datos delicados que solo pueden manejar en las empresas trabajadores de alto rango y desarrolladores de tecnología.

Todo para, una vez dentro de la compañía, desvalijarla.

Parece el argumento de una película futurista de policías y ladrones cibernéticos, pero se trata de un modus operandi denunciado este martes por el FBI. Es real y está ocurriendo.

«El Centro de Denuncias de Delitos en Internet (IC3) del FBI advierte del aumento de las denuncias que informan del uso de deepfakes y del robo de información de identificación personal para solicitar una variedad de puestos de trabajo a distancia y de trabajo en casa», reza el escrito policial.

Los deepfakes, añaden, incluyen un vídeo, una imagen o una grabación alterada y manipulada de forma convincente para hacer creer que alguien está haciendo o diciendo algo que en realidad no se ha hecho o dicho.

Puestos de trabajo a distancia

Aunque el FBI no aporta información sobre cuántas empresas han denunciado este tipo de suplantaciones ni, sobre todo, cuántos de estos falsos candidatos han tenido éxito en su intento, sí está claro lo que buscaban todos ellos: información sensible.

«Los puestos de trabajo a distancia o de trabajo desde casa identificados en estos informes incluyen funciones de tecnología de la información y de programación informática, bases de datos y software. En particular, algunos de los puestos denunciados incluyen el acceso a información personal de los clientes, datos financieros, bases de datos informáticas corporativas y/o información de propiedad», añaden los agentes.

Desde hace casi una década, la tecnología deepfake se vale del aprendizaje automático (también conocido en el argot del sector como machine learning) para crear videos de personas diciendo cosas que en realidad nunca han dicho.

En otras palabras, puede tomar la imagen de cualquiera y, mediante herramientas digitales, como si se tratara de un muñeco ventrílocuo, poner a esa persona a hablar.

La ingeniera española detrás del laboratorio de innovación que trabaja mano a mano con Amazon y que quiere que las tecnológicas asuman la responsabilidad de sus algoritmos.

Empresas

Aunque prometedora, pues muchas empresas ven en el deepfake la herramienta ideal para generar, por ejemplo, asistentes robotizados pero de apariencia humana de muy bajo coste para sus webs, la tecnología ha estado más de una vez bajo la lupa de las autoridades.

Popularizados hace años gracias a los deepfakes que circularon en internet del actor Tom Cruise, con el paso del tiempo la broma ha ido perdiendo gracia.

Hoy, son muchos los usuarios que piden poner coto al deepfake tras descubrirse que hay infinidad de webs consagradas, por ejemplo, a la posibilidad de introducir la imagen de cualquier hombre o de cualquier mujer en mitad de una escena pornográfica.

Pero hay trucos para identificarlos. En este caso, dice el FBI, detalles como errores de sincronización entre la voz y la imagen, sombras que no actúan como deberían, y, sobre todo, estornudos que se producen con la boca cerrada del candidato, delataron a más de un ladrón.


Reciba las últimas noticias de la industria en su casilla:

Suscribirse ✉