Escuchar Descargar Podcast
  • 10H10 - 10H30 TU
    Resto del programa 15/10 10h10 GMT
  • 10H00 - 10H10 TU
    Informativo 15/10 10h00 GMT
  • 23H03 - 23H30 TU
    Resto del programa 14/10 23h03 GMT
  • 23H00 - 23H03 TU
    Informativo 14/10 23h00 GMT
  • 21H03 - 21H30 TU
    Resto del programa 14/10 21h03 GMT
  • 21H00 - 21H03 TU
    Informativo 14/10 21h00 GMT
  • 16H03 - 16H30 TU
    Resto del programa 14/10 16h03 GMT
  • 16H00 - 16H03 TU
    Informativo 14/10 16h00 GMT
  • 14h03 - 14h30 TU
    Resto del programa 14/10 14h03 GMT
  • Emission espagnol 14h00 - 14h03 tu
    Informativo 14/10 14h00 GMT
  • 12H03 - 12H30 TU
    Resto del programa 14/10 12h03 GMT
  • 12H00 - 12H03 TU
    Informativo 14/10 12h00 GMT
Para disfrutar plenamente de los contenidos multimedia, necesita instalar el plugin Flash en su navegador. Para poder conectarse, debe activar las cookies en los parámetros de su navegador. Para una navegación óptima, el sitio de RFI es compatible con estos navegadores: Internet Explorer 8 y +, Firefox 10 y +, Safari 3 y +, Chrome 17 y + etc.
Américas

El peligro de los ‘deepfakes’: porno, política y videos

media Barack Obama y su falso discurso, pronunciado en realidad por el actor Jordan Peele. YouTube/BuzzFeedVideo

A poco más de un mes de las elecciones de medio término en Estados Unidos, una nueva amenaza en materia de desinformación alarma a los políticos norteamericanos: se trata de los “deepfakes”, unos montajes video basados en inteligencia artificial, que permiten sustituir a una persona por otra y hacerle decir y hacer lo que uno quiera.

Todo empezó con pornografía. A finales del año 2017, se empezaron a publicar en internet videos pornográficos que ponían en escena a cantantes y actrices famosas, y que se hicieron virales en poco tiempo. Muy rápidamente se supo que ni Katy Perry, ni Scarlett Johansson, ni las demás eran las verdaderas protagonistas de estos filmes sino que se había “pegado” sus caras sobre otros cuerpos, gracias a una nueva tecnología que usa inteligencia artificial y algoritmos.

De la pornografía a la política

La historia no se quedó allí. Poco tiempo después, aparecieron videos falsificados con políticos de varias partes del mundo, como Angela Merkel. El expresidente estadounidense Barack Obama fue utilizado en un video del sitio Buzzfeed para alertar sobre los posibles usos nefastos de esta tecnología y los riesgos de desinformación, con un discurso ficticio en el que dice que Donald Trump es una mierda (“dipshit”).

Esta nueva y potente arma no ha dejado indiferentes a los políticos estadounidenses. El pasado 13 de septiembre, un grupo bipartidista de representantes pidió al gobierno que los “deepfakes” fueran inscritos en la lista de las amenazas contra la seguridad nacional. Temen que desde el extranjero haya un intento de desestabilización durante la campaña de las elecciones de medio término, en noviembre próximo.

Si bien la manipulación de las imágenes no es nueva, la tecnología ha mejorado mucho. De hecho, “deepfake” es la contracción de “deep learning” (aprendizaje profundo, un término vinculado a la inteligencia artifical), y de “fake” (falso). Esta técnica permite retocar los videos de manera hiperrealista: la cara, la voz y la expresión corporal parecen tan reales que puede resultar imposible detectar la falsificación sin programas de verificación digital.

Una amenaza real, a la que se busca soluciones

El peligro de los “deepfakes” es que se pueden realizar fácilmente, principalmente con un programa llamado FakeApp. Los algoritmos hacen el resto, a condición de proveerlos con un importante banco de imágenes de la víctima del montaje. Una tecnología, pues, que está casi al alcance de cualquier persona.

“Los videos en línea son de todas maneras muchas veces de mala calidad, entonces es muy difícil detectar las alteraciones debidas a una manipulación”, explica Jean-Michel Morel, investigador en el Centro de Matemáticas de la Escuela Normal Superior (ENS) de Paris-Saclay.

Sin embargo, se buscan soluciones. Vincent Nozick, del Laboratorio de Informática Gaspard-Monge (LIGM), trabaja en el programa Mesonet que tiene como objetivo descubrir los “deepfakes” aprovechando sus límites tecnológicos. “Nos dimos cuenta, por ejemplo, que la observación de los ojos tiene un papel preponderante para detectar la falsificación”, comenta el experto. Movimientos de ojos o parpadeos no sincronizados o demasiado frecuentes traicionan a menudo la manipulación.

Alan Dolhasz, de la Universidad de Birmingham, es bastante optimista: “La investigación en este dominio avanza muy rápido. Los ‘deepfakes’ van a dar lugar a una carrera tecnológica entre los falsificadores y los que intentan contrarrestarlos”. Pero para él, la batalla está perdida de antemano si la gente decide creer en los videos manipulados que recibe: “Si confían en la persona que, en Facebook, les manda un enlace hacia un video falso, hay menos chances de que busquen si es auténtica o no. Fue lo que pasó con las ‘fake news’ en las elecciones estadounidenses de 2016”.

Pero más allá de las elecciones de medio término en Estados Unidos, la amenaza es múltiple y podría tener consecuencias nefastas para el equilibrio del orden mundial, como en el caso de una falsa declaración de guerra. Quizás la mejor respuesta sea entonces, como lo estima Jean-Michel Morel de l’ENS, “la educación pública sobre cómo usar e interpretar los medios de comunicación”.

(Con France 24)

 
Lo sentimos, el tiempo de conexión disponible para esta operación se ha terminado.