Espectáculos Muy Tecno Domingo, 18 de agosto de 2019 | Edición impresa

Deepfake: los secretos detrás de los virales que atemorizan al mundo

Los videos producidos con inteligencia artificial se transformaron en el fetiche de la desinformación en las redes.

Por Nicolás Nicolli - nnicolli@losandes.com.ar

Para algunos es un acertado pronóstico sobre el inminente futuro. Para otros, una realidad que nos negamos a reconocer y cambiar. La miniserie “Years and Years” (disponible en HBO Go) volvió a estar en boca de los mortales por los deepfakes, videos producidos mediante inteligencia artificial para crear situaciones de apariencia realista que nunca sucedieron. Los políticos, por supuesto, alarmados ante una eventual ola de desinformación.

Esta semana se viralizó un video de 2008 en el que se ve al actor Bill Hader (“Barry”) contándole una divertida anécdota a David Letterman. Mientras imita las voces de Tom Cruise y Seth Rogen, su rostro muta al de los actores, con una precisión que genera igual dosis de risas y miedo. El material, publicado en YouTube por el usuario “Ctrl Shift Face”, se suma a otros similares como el del enroque entre Brad Pitt y Edward Norton por sus roles en “El club de la pelea” y escenas de la serie “The Office”. 

 
El deepfake viral

Lo que parecen ser anécdotas para generar memes en las redes sociales, mantienen en vilo a las autoridades, debido a la concreta posibilidad de desatar un nuevo tipo de desinformación con consecuencias devastadoras.

 

Justamente, en el episodio 4 de “Years and Years”, un video muestra a un dirigente del Partido Conservador afirmando que impulsa la ejecución de los inmigrantes. Su peor pesadilla. Al menos, en público. Claro que Vivienne Rook, candidata de la extrema derecha interpretada por Emma Thompson, aprovecha la ocasión para despacharse con un epítome perfecto: “Todos pueden ver que los videos no son reales. Pero de todos modos, realmente dijeron esas cosas, ¿cierto?”.

Deepfake de "El club de la pelea"

Varias estrellas del mundo del entretenimiento cayeron en los deepfakes, pero no en el sentido de rejuvenecimiento como Robert Downey Jr. en “Capitán América: Civil War” o la resurrección digital de Peter Cushing en “Rogue One: una historia de Star Wars”. Falsos videos eróticos de Emma Watson y Scarlett Johansson circularon por Pornhub, pero el portal nunca tomó medidas.

Además, en abril, el ex presidente estadounidense Barack Obama fue “víctima” de un deepfake, ya que se lo veía insultando a su sucesor Donald Trump. En realidad, se trataba de un experimento del director Jordan Peele (“Get Out”) y de BuzzFeed para alertar sobre lo sencillo que resulta manipular la realidad con un simple editor de video.

Desde Facebook, Mark Zuckerberg pidió abordar los deepfakes como una forma distinta de desinformación, aunque prefirió mantenerse al margen de la intervención: dijo que a la red social no le corresponde decidir qué es verdad o no y que es una tarea externa de verificadores de datos.

 

Mientras tanto, legisladores de EEUU advirtieron que los videos alterados por el uso de programas de inteligencia artificial constituyen una amenaza para la seguridad nacional y las elecciones de 2020. 

El demócrata Adam Schiff aseveró que los deepfakes fomentan el caos, la división y la crisis, además de “trastornar campañas”. Pero en la trinchera republicana optaron por el lugar de víctimas. “Los filtros vigentes tienen una tendencia de izquierda. La mayoría de las veces las prohibiciones recaen sobre los conservadores”, deslizó el dirigente Devin Nunes.

Por estos lares se dio un caso similar el mes pasado, aunque técnicamente no se lo puede calificar como deepfake. Usuarios manipularon un video que tuvo como protagonista a la ministra de Seguridad Patricia Bullrich: lo ralentizaron para generar un estado de ebriedad, que tuvo fuerte eco en los canales informativos y obligó a una desmentida oficial.

 

Más allá de cierta astucia para detectarlos, hay un pequeño error que puede ayudar a determinar si lo que tenemos en nuestras pantallas es un deepfake: las caras manipuladas parpadean muchísimo menos, ya que la mayoría de las fotografías que se utilizan tienen a personas con los ojos abiertos y no cerrados.

La media de parpadear para los humanos es 17 parpadeos por minuto, se incrementa a 26 parpadeos por minuto cuando alguien está hablando y se reduce a 4,5 parpadeos por minuto cuando alguien está leyendo. Si en un video la persona no parpadea (o lo hace de manera extraña), es posible que se trate de un deepfake. Sí, es necesario chequear fotograma por fotograma. 

 

No obstante, es más fácil creer que aquel político que no nos agrada está diciendo frases que nutran los estereotipos que tenemos de él. 

No importa cuánto proclamen su inocencia los protagonistas de los videos, el daño ya está hecho. Las palabras entraron en la conciencia pública y su verdad es irrelevante.