El deepfake es cada vez más común. Unos lo usan para bien, un ejemplo reciente es una campaña en la que consiguieron «revivir» a Lola Flores diciendo una frase a conveniencia. Otros, lo usan para poner en práctica su lado oscuro y esto es lo que preocupa a los cientÃficos.
El sistema que alerta el uso del deepfake no es tan efectivo como se creÃa. Investigadores de la Universidad de California, en San Diego, han descubierto que la realización de estos videos engañosos está siendo tan perfecta que es difÃcil distinguir la verdad de la mentira.
El expresidente de Estados Unidos, Barack Obama y La Reina Isabel de Inglaterra, han sido vÃctimas de esta tecnologÃa basada en Inteligencia Artificial. Lo realmente importante es ¿hasta qué punto podrÃan llegar a manipular la información usando esta herramienta?
«Nuestro trabajo muestra que los ataques a detectores deepfake podrÃan ser una amenaza al mundo real«, dijo Shehzeen Hussain, un estudiante de doctorado en ingenierÃa informática, reseña Daily Star.
Para probar su teorÃa ha puesto a prueba los detectores tomando en cuenta si sus atacantes conocen o no la manera en como funcionan. El menor de los casos dicta que es un 88% probable que los detectores no funcionen.
Incluso si estuvieran ante la manipulación del rostro de una persona y se fijaran en el parpadeo de sus ojos, algo muy difÃcil de replicar, no podrÃan asegurar que se trata de un deepfake. El engaño como profesión ha subido a otro nivel.