El origen de las deep fakes y sus problemas

Autor: | Última modificación: 13 de enero de 2022 | Tiempo de Lectura: 5 minutos
Temas en este post:

Todo empezó con Gal Gadot

No deja de ser tragicómico, que algo con el potencial de cambiar nuestra sociedad, haya empezado en Reddit (una especie de “forocoches” a lo grande). Lo que hasta entonces era una aplicación estrafalaria de las redes neuronales y herramientas como TensorFlow, conocida solo en pequeños nichos, saltó a las primeras páginas de la prensa generalista en 2018. Warner Brothers había amenazado con llevar a Reddit a los tribunales ya que se convirtió en el origen de las deep fakes. ¿La razón? En uno de los foros de Reddit un usuario había publicado un video pornográfico falso, generado por inteligencia artificial, en el que aparecía Gal Gadot, la protagonista de Wonder Woman, del estudio Warner Bros.

Aunque Reddit bloqueó de inmediato al usuario (llamado deepfakes, por deep learning, la tecnología usada) y el foro donde se compartían dichos videos, el genio ya se había escapado de la botella.

La técnica era aprovechar un video porno pre-existente y mapear la cara de otra persona sobre la de la actriz original, para que así parezca que es otra persona la que está haciendo esas cosas. El video no podría engañar a nadie que lo examinase con cierto detalle, ya que aparecían ciertos artefactos en los contornos de la cara y ésta a veces parecía estar desincronizada con el resto del video.

Nada de esto importa. Lo verdaderamente importante es que NO había sido creado por un estudio multimillonario con supercomputadores. Lo había creado (junto a otros muchos más) una sola persona, con un equipo casero y herramientas gratuitas como TensorFlow. Todo ello en sus ratos libres. Aquí es donde está la relevancia: no era “rocket science”, estaba al alcance de cualquiera.

Todo esto fue hace tres años. Hoy en día hay herramientas que permiten generar vídeos o audios falsos, que permiten mostrar a alguien haciendo o diciendo lo que uno quiera. Como era de esperarse, las víctimas han sido actores, actrices y políticos (hay uno famoso con Donald Trump y Obama). 

Adobe ha lanzado una herramienta, que después de oírte hablar durante 20 minutos, puede hacerte decir cualquier cosa.

 

Por otro lado, tenemos herramientas como Face2Face, que permite mapear los gestos de un actor sobre la cara de otra persona, como por ejemplo George Bush.

 

La calidad ha mejorado enormemente y ya permite engañar a un mayor porcentaje de espectadores. Es inevitable que en pocos años estos “deep fakes” resulten imposibles de distinguir de un video o audio real.

¿Y ahora qué?

Solución tecnológica trivial

Desde el punto de vista tecnológico, la solución es trivial y no hay ni que pensar: luchar con fuego contra el fuego. Si alguien usa redes neuronales para generar contenido falso, usemos redes neuronales para detectarlo. Ya hay redes neuronales que son más eficaces que los humanos para detectar “deep fakes” y a medida que avanza esta “guerra armamentística” entre IAs (unas generando deep fakes cada vez mejores y otras mejorando su capacidad de detección), pronto llegaremos a un punto en que los “deep fakes” sólo podrán ser detectados por máquinas.

Aquí es donde surge el verdadero problema, un problema muchísimo mayor y que hace irrelevante la detección de deep fakes por parte de máquinas.

Si no podemos confiar en nuestros sentidos, y tenemos que recurrir a una máquina para distinguir lo falso de lo verdadero, ¿cuántos van a confiar en ese detector? ¿Cómo sabemos que no ha sido alterado?

Cuando no puedes confiar en tus sentidos

Y es que en el mundo traidor

nada hay verdad ni mentira;

-Ramón de Campoamor

Vivimos en un mundo donde un grupo creciente de personas practica un “escepticismo irracional”: se duda de lo demostrable e incluso de lo demostrado. A lo que antes era un grupúsculo irrelevante, los negacionistas del Holocausto, se han unido grupos mucho más numerosos de nuevos negacionistas: los anti-vacunas, los “terraplanistas”, seguidores de QAnon y un largo etcétera. Este nuevo fenómeno de masas se ve azuzado por otro de los jinetes del apocalipsis de nuestro siglo, las redes sociales. ¿Qué ocurrirá cuando en dichas redes circulen videos y audios falsos que ninguna persona pueda distinguir de los reales?

No tiene sentido prohibir los deep fakes y las herramientas necesarias para crearlos. La caja de Pandora ya está abierta, y esas herramientas son las que necesitamos para mil tareas legítimas, como mejorar el diagnóstico de enfermedades. Necesariamente tendremos que cambiar y adaptarnos a ello.

Cambios Legales

Esto no quiere decir que no se tengan que hacer cambios legales. En algún momento habrá que dejar de aceptar videos y audios como pruebas en los tribunales. Aunque su veracidad pudiese ser determinada por una red neuronal, el acusado querrá entender cómo se ha llegado a esa decisión y eso no es posible, ni siquiera mostrando “el código” de dicha red, por la manera en que funcionan las redes neuronales. Esto nos llevaría  a situaciones de indefensión y de vulneración de derechos básicos.

Claramente lo que empezó como una broma de mal gusto con una actriz de películas de acción, tiene el potencial para alterar el futuro de nuestra sociedad, el futuro en el que vivirán nuestros hijos.

Desafíos y soluciones

Este futuro, que mi generación veía como una utopía llena de robots y coches volantes, cada vez  lo sobrevuelan más nubarrones. 

Tenemos el efecto de la automatización e IA sobre el mercado laboral, haciendo que la mano de obra no cualificada o poco cualificada quede sin espacio, sobre todo en los países ricos. El rápido ascenso de una China no democrática y su probable choque con EEUU, el colapso demográfico de la UE, el cambio climático, la extinción masiva del antropoceno, el “surveillance capitalism” y peor aún, el “surveillance socialism” practicado ya a gran escala en China, la creciente polarización de nuestras sociedades y ahora además, el no poder confiar en lo que ves ni en lo que oyes.

Los desafíos que tendrán que resolver nuestros hijos son ingentes, pero no insuperables, y podemos ayudar.

Nuestra generación, que además de haber creado gran parte de estos problemas, tiene en parte la llave para resolverlos. La tenemos, porque al contrario de nuestros hijos, hemos conocido otro mundo, uno menos polarizado, menos dividido, donde lo que se veía y se oía era cierto e indiscutible. 

Cuando no puedes confiar en tus ojos ni en tus oídos, no queda más que confiar en tu cerebro. Tenemos que inculcar el pensamiento crítico y un “escepticismo racional” que permita dudar de forma razonable y razonada, sin negar lo evidente.

Para resolver grandes problemas, son dos las herramientas esenciales: foco e intensidad. Estas son las víctimas principales de la “sociedad de la distracción” en la que vivimos, donde ningún pensamiento de más de 140 caracteres puede sobrevivir. Para resolver los grandes desafíos a los que tendrán que hacer frente nuestros hijos, que no han conocido otra cosa, tendrán que recuperar esos valores del pasado.

Si las redes sociales son el medio idóneo donde circulan y se amplifican los bulos, fakes news y dentro de poco, los deep fakes, necesariamente tendremos que aprender a hacer un uso racional y saludable de las mismas, que no es necesariamente salir de todas.

Por último, para poner freno a la polarización de nuestras sociedades, que puede verse muy exacerbada por los deep fakes, no basta con ser tolerantes. Ya no es suficiente “tolerar” al que piensa de otra forma. Hay que ir más allá.

No pierdas más tiempo discutiendo sobre lo que un hombre bueno debería ser. Sé uno.

-Marco Aurelio. Meditaciones

¿Cómo enseñar todo esto a nuestros hijos? Recordando que aunque son una calamidad para hacer lo que se les pide, son una maravilla para copiar lo que ven.

Si quieres descubrir esta tecnología en profundidad y desarrollar herramientas que puedan controlar la aparición de deep fakes no autorizadas, descubre nuestros Bootcamps en Programación, con los cuales podrás aprender desarrollo web, mobile, big data, DevOps, ciberseguridad y todo esto con técnicas y herramientas de punta.

[email protected]