Cada vez es más fácil manipular vídeos de forma convincente. Tanto que con la ayuda de la inteligencia artificial empieza a ser indistinguible cuál es real y cuál falso. La mentira perfecta ya es posible. La llaman ‘Deepfake’ y amenaza la democracia. Por Philip Bethge

“Trump es un imbécil total y completo”. El hombre que pronuncia estas palabras lo hace sentado en un despacho junto a la bandera americana. Su opinión sobre el actual presidente de Estados Unidos no es buena, y no lo disimula. Su rostro es clavado al de Barack Obama. Tiene su voz. Pero Obama nunca dijo esas palabras, al menos en público.

Ya se ha logrado crear un programa capaz de simular la voz de tu novia y de pedirte la clave de tu cuenta por teléfono

El que habla en el vídeo es el actor norteamericano Jordan Peele, un talentoso imitador. El software FakeApp ha fundido su boca con la del verdadero Obama. Han hecho falta 56 horas para crear esta pieza. En ella, unos labios prestados pronuncian el llamamiento que Peele quiere lanzar al mundo.

«Son tiempos peligrosos -advierte a través del falso Obama-. Comienza una era en la que nuestros enemigos pueden hacer que parezca que alguien dice algo que nunca dijo».

Este vídeo, publicado por la plataforma de Internet BuzzFeed, es el ejemplo más acabado de fake news de segunda generación. Si hace nada descubrimos el poder de los algoritmos de Facebook o Twitter para difundir propaganda y desinformación, los expertos ya nos advierten de un nuevo peligro: el engaño digital perfecto, la falsificación exacta de imágenes y sonidos.

Los pesimistas dibujan un panorama inquietante: un mundo en el que los vídeos manipulados crean recuerdos falsos, desencadenan conflictos e incluso guerras. En otras palabras: no podremos confiar en nuestros sentidos. En este futuro cercano habrá herramientas informáticas de fácil uso que permitirán a cualquiera alterar la realidad con una perfección asombrosa.

«Que hasta ahora hayamos podido confiar en los vídeos como prueba irrefutable de un hecho ha sido una suerte inmensa». Ian Goodfellow, experto en inteligencia artificial de Google, dijo estas palabras en una conferencia celebrada en el Instituto de Tecnología de Massachusetts el pasado noviembre.
Por su parte, Aviv Ovadya, del Centro de Responsabilidad para las Redes Sociales de la Universidad de Míchigan, se pregunta: «¿Qué pasará cuando cualquiera pueda simular de forma convincente un suceso?». Porque, añade, cada vez va a ser más sencillo falsificar audios y vídeos. Y pone ejemplos: desde simular que «un líder mundial ordena un ataque nuclear» hasta «reproducir la voz de tu pareja que te pide por teléfono la contraseña de la cuenta bancaria».

Sobre nosotros se cierne un «infoapocalipsis», la desaparición de estructuras mediáticas y comunicativas fiables, dice Ovadya. «Las herramientas para difundir informaciones falsas llevan tiempo sobre la mesa», solo que ahora ya estamos ante el salto definitivo hacia el engaño masivo. «La distorsión de la propia realidad».

Fabricando la mentira perfecta

Hace año y medio, el mundo fue consciente de cómo Internet está cambiando la gestión de la verdad y la mentira. Los esfuerzos rusos por influir en las elecciones presidenciales estadounidenses todavía no se han esclarecido por completo. Por otro lado, el término ‘hechos alternativos’ hizo su entrada en el vocabulario oficial en 2017, introducido por Donald Trump, el hombre que ha convertido las fake news en un arma y que aprovecha cualquier oportunidad para cuestionar la verdad.

Al mismo tiempo, la llamada ‘realidad aumentada’ se está convirtiendo en el término de moda en Silicon Valley. De momento, esta realidad ‘adornada’ tiene una forma inocente, como los filtros fotográficos de Snapchat. Pero su evolución lógica es la manipulación completa de la realidad.

En 2017 apareció en el portal de Internet Reddit un vídeo pornográfico diferente. La actriz israelí Gal Gadot mantenía relaciones sexuales con un rostro extrañamente inexpresivo. Un usuario de Reddit había montado su cara sobre el cuerpo de una actriz porno. Para este trasplante digital, el programador usó un sistema de transferencia de rostro capaz de aprender por sí mismo llamado TensorFlow, una herramienta de libre acceso creada por Google para fomentar la investigación en el campo de la inteligencia artificial.

“Desarrollar un programa que engañe a la gente es aterrador. En Silicon Valley están éticamente perdidos”

Hoy, solo año y medio más tarde, cualquiera dispuesto a echarle horas puede jugar a su antojo con los rostros de los actores. Angelina Jolie, Natalie Portman o Taylor Swift, todas ellas han ‘prestado’ involuntariamente su cara a cuerpos de actrices porno. Los programadores amateurs también usan el trasplante digital para colar su cara o la de amigos en escenas de taquillazos de Hollywood.

Todo esto es posible gracias a una aplicación gratuita llamada FakeApp, la misma que ha usado BuzzFeed para crear su Obama falso. Este programa facilita muchísimo la producción de lo que en la jerga de Internet ya se conoce como deepfakes.

FakeApp utiliza algoritmos inteligentes que optimizan sus resultados por sí mismos, sin intervención humana. Si se le facilitan suficientes imágenes de dos personas, el programa monta la cara de un tipo sobre el cuerpo de otro con un resultado sorprendentemente realista.

Y esto es solo el principio. Los expertos en inteligencia artificial están seguros de que cada vez va a ser más sencillo manipular vídeos de forma convincente.

No solo la imagen es importante

Pero para que la mentira sea perfecta no basta solo la imagen, se necesita la voz. Adobe presentó en 2016 el programa de análisis de voz VoCo. Según sus creadores, le bastan 20 minutos de material para extraer las características propias de una voz. A continuación, el usuario puede hacerle decir a esa voz todo lo que quiera simplemente tecleando las palabras en un cuadro de diálogo.

Google también ha entrado en los sistemas de voz. La empresa acaba de presentar un nuevo asistente, llamado Duplex, capaz de reservar una mesa en un restaurante o pedir cita en la peluquería con una voz sorprendentemente ‘humana’, obviamente por teléfono. Duplex incluso hace pausas e introduce los típicos sonidos de duda. Durante su presentación, los desarrolladores hicieron dos llamadas con éxito, sin que el programa informara a su interlocutor de que no estaba hablando con alguien de carne y hueso.

Este nuevo software despertó entusiasmo entre los asistentes, pero también inquietud. Desarrollar un programa que «simule ser un humano» y «engañe» a la gente es «aterrador», tuiteó la socióloga Zeynep Tufekci, de la Universidad de Carolina del Norte. En su opinión, en Silicon Valley se les ha ido la mano, están «éticamente perdidos».

¿En qué podemos creer?

A la vista de todo esto, hay que preguntarse hasta dónde pueden llegar los desarrolladores con sus falsificaciones. Y si ya nada de lo que parece real lo es, en qué podemos creer?
Hasta ahora, la mayoría de la gente tendía a considerar auténticas las grabaciones de audio o vídeo, siempre y cuando hubieran sido emitidas en directo o no hubieran sido montadas o editadas. La capacidad de generar indignación era mucho mayor cuando los escándalos iban acompañados por audios o imágenes. Pero ahora las dudas del público no dejan de crecer.

En octubre de 2016, Donald Trump no tuvo más remedio que reconocer la autenticidad de aquel famoso «cogerlas del coño», y pedir disculpas por sus comentarios obscenos sobre las mujeres. Sin embargo, ahora ya sí se atreve a negar la autoría de esas palabras. «No creemos que fuera mi voz».

También está el caso de Emma González, superviviente de la masacre del instituto de Parkland, en Florida. Esta alumna de pelo rapado se convirtió en icono de las protestas contra la tenencia de armas en Estados Unidos. Poco después de sus primeros discursos circuló por las redes un vídeo en el que se la veía rompiendo la Constitución estadounidense. Los autores alteraron un vídeo real para desacreditarla.

Emma Gonzalez

Emma González durante uno de los discursos que pronunció tras la matanza en su instituto de Florida

El tecnólogo Aviv Ovadya está convencido de que, pronto, nos veremos inundados por estos vídeos falsos. Le preocupa que las campañas políticas dirigidas por inteligencias artificiales resulten indistinguibles de los movimientos ciudadanos reales. Incluso teme una «manipulación de la diplomacia», por ejemplo, que círculos interesados hagan creer a la gente «que un suceso ha tenido lugar». Un vídeo en el que Angela Merkel dice algo comprometedor sobre el presidente turco Recep Tayyip Erdogan podría causar una catástrofe diplomática. Y qué pasaría si aparece un vídeo en el que el líder norcoreano, Kim Jong-un, ordena el lanzamiento de misiles nucleares contra Estados Unidos? Trump esperaría a que sus servicios de inteligencia comprobaran su autenticidad antes de decretar un contraataque?

La sociedad es vulnerable

¿Qué le ocurre a una sociedad si se la expone a fake news cada vez más perfectas? En opinión de Aviv Ovadya hay dos escenarios posibles. Y los dos ponen en peligro la democracia.

Por un lado, plantea la posibilidad de que «la gente se acabe desentendiendo, que deje de seguir las noticias». Ovadya lo llama «apatía por la realidad». Aburrida de las falsedades, la sociedad empieza a cuestionar todas las noticias ofrecidas por los medios.

En un segundo escenario, más perturbador si cabe, «las personas únicamente recibirán aquello que se ajuste a sus convicciones»; de hecho, ya estamos viendo algo parecido en Estados Unidos. ¿Qué sucede cuando todo el mundo cree solo lo que quiere creer? Que la sociedad se polariza peligrosamente.

El problema también tiene su raíz en la propia naturaleza humana: los científicos han demostrado que, con el tiempo, los recuerdos se acaban convirtiendo en certezas independientemente de si al principio iban acompañados por ciertas dudas. Este fenómeno parece ser especialmente válido en el caso de los vídeos: el cerebro humano tiene una capacidad limitada para, por así decirlo, dar por no visto algo que ha visto.

«Es muy fácil venderle a la gente como cierto algo que no lo es», dice Aviv Ovadya. En cierta manera, añade, estamos ante un «fallo de seguridad en el cerebro del ser humano».

Nos enfrentamos, pues, al colapso de la realidad? Las fake news surgidas de la inteligencia artificial podrían destruir ese pilar de la democracia que es la credibilidad de los hechos?

¿Razones para el optimismo?

No todos los investigadores son tan pesimistas. «Hay mucho alarmismo», dice Matthias Niessner, profesor de la Universidad Técnica de Múnich. De todos modos, está de acuerdo en que las personas son fáciles de engañar. En uno de sus experimentos, sus estudiantes no fueron capaces de distinguir los vídeos falsos de los auténticos.

En Nueva York se ha reunido un grupo de expertos en ‘fake news’ para concienciar a la sociedad sobre estas herramientas

Sin embargo, para los ordenadores sí es fácil identificar fotos o vídeos manipulados. Por eso este profesor quiere combatir las fake news con la tecnología: con procedimientos forenses de inteligencia artificial. Niessner y su equipo ya han desarrollado un programa detective, FaceForensics, que reconoce si un vídeo es auténtico o no. Incluso han desarrollado un plug-in que descubre los vídeos falsos de forma automática. Los usuarios pueden incorporarlo a su navegador Firefox o Chrome para separar la paja del grano, para distinguir la ficción de la realidad.

En Nueva York se acaba de reunir un grupo de expertos en el campo de las fake news, con la intención de concienciar a la sociedad:  el NYC Media Lab ha organizado el Fake News Horror Show, una «feria científica que reúne aterradoras herramientas de propaganda, algunas reales, otras ficticias, pero todas ellas basadas en tecnologías plausibles», como se asegura en la invitación. La intención de este simposio la resume bien el falso Obama al final del vídeo de BuzzFeed. «Estad atentos, capullos».

También te pueden interesar estos artículos

TimWu: “Tenemos que parar a Facebook de una vez por todas”

Noticias falsas, manipulación, falta de privacidad. ¿Están seguros nuestros datos?