Scarlett Johansson ya se ha resignado: “Nada puede impedir que alguien corte y pegue mi imagen o la de otra persona en otro cuerpo y haga que se vea tan realista como quiera”, explica en una entrevista en The Washington Post. La actriz habla con conocimiento de causa. Recientemente se han viralizado varios vídeos porno supuestamente protagonizados por ella. Los intereses son claros: aprovechar el morbo que despierta ver a un personaje público manteniendo relaciones sexuales para aumentar las visitas y hacer más dinero. Pero pasan por alto un ínfimo detalle: la persona que aparece en ese vídeo no es Johansson, sino el resultado de utilizar la inteligencia artificial para crear vídeos falsos e increíblemente realistas.

Como toda nueva tendencia, ya tiene su nombre en inglés: deep fakes. Y son el resultado de utilizar la IA para mimetizar la imagen original (el vídeo porno) con la falsificada (la cara de Scarlett Johansson) de forma que la luz se iguale en ambos archivos y se refracte de forma natural. También se utiliza para dar movimiento a las imágenes fijas. Así, se pueden trasladar las expresiones faciales y corporales de una persona a otra, tal y como sucede en este vídeo de Barack Obama que Buzzfeed creó de la nada para demostrar cómo de fácil es hacer decir al expresidente de los Estados Unidos lo que tú quieras.

Por ahora, esta práctica está dañando más a las mujeres. Las caras de actores y otros hombres famosos se insertan en los vídeos falsos como una broma: hay un vídeo que muestra la cara de Nicolas Cage superpuesta a la de Donald Trump durante un discurso. Está el de Barack Obama hablando sobre fake news. Pero los vídeos falsos de mujeres son predominantemente pornográficos, algo que resulta mucho más denigrante y que genera sentimientos de humillación y abuso. «Las falsificaciones son explícitamente detalladas, publicadas en sitios populares de pornografía y cada vez más difíciles de detectar», explican en The Lily.

Uno de los vídeos de Johansson ha sido visto más de 1,5 millones de veces. Pero no es la única a la que le ha pasado. The Lily asegura que la crítica de medios Anita Sarkeesian, que fue atacada por sus críticas feministas de la cultura pop y los videojuegos, fue insertada en un vídeo porno hardcore que se ha visto más de 30.000 veces en Pornhub. Y eso que este portal de vídeos porno prohibió los deep fakes en febrero del año pasado. Supuestamente, Google también sacó esas imágenes de sus resultados de búsqueda. Pero siguen ahí.

Y aunque las famosas sean la diana preferida por el momento, esto es algo que puede pasarle a cualquiera. El programador solo necesita imágenes y vídeos de la víctima que le sirvan de referencia y los puede encontrar fácilmente en cualquier red social que tenga un perfil público. Hay foros sobre deep fakes donde se reúne toda una comunidad de usuarios dispuestos a generar este tipo de contenido.

  • Y no hay forma de combatirlo

Por el momento, el vacío legal existente facilita que este contenido prolifere. Y, aunque hay algunas iniciativas privadas orientadas a combatirlo, por el momento no han resultado efectivas. La única opción en la que se está trabajando es en desarrollar un sistema para detectar las imágenes manipuladas. La misma tecnología que facilita la existencia de estos vídeos hiperrealistas pero falsos es la que hace posible que cualquier ciudadano de a pie pueda detectarlos con un smartphone. Varias startups han desarrollado aplicaciones móviles que utilizan algoritmos para averiguar si una fotografía o un vídeo han sido manipulados, como Serelay y Truepic, que utilizan algoritmos que verifican automáticamente las fotos cuando se captan.

Su idea es convertir algún día su tecnología de verificación en un estándar de la industria para las cámaras digitales. Si esto se aplicara a Facebook o Snapchat la repercusión sería mayor. «Una imagen inalterada publicada en las redes sociales podría recibir automáticamente una marca de verificación, como una credencial de verificación de Twitter, lo que indica que coincide con una imagen en su base de datos», explica el MIT.

MÁS INFORMACIÓN

Fuente: El País