Saltar al contenido principal
Nuevas tecnologías

El peligro de los ‘deepfakes’: porno, política y videos

A poco más de un mes de las elecciones de medio término en Estados Unidos, una nueva amenaza en materia de desinformación alarma a los políticos norteamericanos: se trata de los “deepfakes”, unos montajes video basados en inteligencia artificial, que permiten sustituir a una persona por otra y hacerle decir y hacer lo que uno quiera.

Barack Obama y su falso discurso, pronunciado en realidad por el actor Jordan Peele.
Barack Obama y su falso discurso, pronunciado en realidad por el actor Jordan Peele. YouTube/BuzzFeedVideo
Anuncios

Todo empezó con pornografía. A finales del año 2017, se empezaron a publicar en internet videos pornográficos que ponían en escena a cantantes y actrices famosas, y que se hicieron virales en poco tiempo. Muy rápidamente se supo que ni Katy Perry, ni Scarlett Johansson, ni las demás eran las verdaderas protagonistas de estos filmes sino que se había “pegado” sus caras sobre otros cuerpos, gracias a una nueva tecnología que usa inteligencia artificial y algoritmos.

De la pornografía a la política

La historia no se quedó allí. Poco tiempo después, aparecieron videos falsificados con políticos de varias partes del mundo, como Angela Merkel. El expresidente estadounidense Barack Obama fue utilizado en un video del sitio Buzzfeed para alertar sobre los posibles usos nefastos de esta tecnología y los riesgos de desinformación, con un discurso ficticio en el que dice que Donald Trump es una mierda (“dipshit”).

Esta nueva y potente arma no ha dejado indiferentes a los políticos estadounidenses. El pasado 13 de septiembre, un grupo bipartidista de representantes pidió al gobierno que los “deepfakes” fueran inscritos en la lista de las amenazas contra la seguridad nacional. Temen que desde el extranjero haya un intento de desestabilización durante la campaña de las elecciones de medio término, en noviembre próximo.

Si bien la manipulación de las imágenes no es nueva, la tecnología ha mejorado mucho. De hecho, “deepfake” es la contracción de “deep learning” (aprendizaje profundo, un término vinculado a la inteligencia artifical), y de “fake” (falso). Esta técnica permite retocar los videos de manera hiperrealista: la cara, la voz y la expresión corporal parecen tan reales que puede resultar imposible detectar la falsificación sin programas de verificación digital.

Una amenaza real, a la que se busca soluciones

El peligro de los “deepfakes” es que se pueden realizar fácilmente, principalmente con un programa llamado FakeApp. Los algoritmos hacen el resto, a condición de proveerlos con un importante banco de imágenes de la víctima del montaje. Una tecnología, pues, que está casi al alcance de cualquier persona.

“Los videos en línea son de todas maneras muchas veces de mala calidad, entonces es muy difícil detectar las alteraciones debidas a una manipulación”, explica Jean-Michel Morel, investigador en el Centro de Matemáticas de la Escuela Normal Superior (ENS) de Paris-Saclay.

Sin embargo, se buscan soluciones. Vincent Nozick, del Laboratorio de Informática Gaspard-Monge (LIGM), trabaja en el programa Mesonet que tiene como objetivo descubrir los “deepfakes” aprovechando sus límites tecnológicos. “Nos dimos cuenta, por ejemplo, que la observación de los ojos tiene un papel preponderante para detectar la falsificación”, comenta el experto. Movimientos de ojos o parpadeos no sincronizados o demasiado frecuentes traicionan a menudo la manipulación.

Alan Dolhasz, de la Universidad de Birmingham, es bastante optimista: “La investigación en este dominio avanza muy rápido. Los ‘deepfakes’ van a dar lugar a una carrera tecnológica entre los falsificadores y los que intentan contrarrestarlos”. Pero para él, la batalla está perdida de antemano si la gente decide creer en los videos manipulados que recibe: “Si confían en la persona que, en Facebook, les manda un enlace hacia un video falso, hay menos chances de que busquen si es auténtica o no. Fue lo que pasó con las ‘fake news’ en las elecciones estadounidenses de 2016”.

Pero más allá de las elecciones de medio término en Estados Unidos, la amenaza es múltiple y podría tener consecuencias nefastas para el equilibrio del orden mundial, como en el caso de una falsa declaración de guerra. Quizás la mejor respuesta sea entonces, como lo estima Jean-Michel Morel de l’ENS, “la educación pública sobre cómo usar e interpretar los medios de comunicación”.

(Con France 24)

Boletín de noticiasNoticias internacionales esenciales todas las mañanas

Siga toda la actualidad internacional descargando la aplicación RFI

Compartir :
Página no encontrada

El contenido que solicitó no existe o ya no está disponible.