En la era de la posverdad casi nada es cierto.
Deepfake, el falso video porno del que podrías ser protagonista
Hasta hace seis meses era un proceso complejisimo. Pero recientes apps permiten incrustar rostros y voz de alguien concreto en escenas sexuales que circulan en el ámbito triple X.
En ese sentido la última de las tendencias son los deepfakes.
¿De qué se trata? Son videos porno modificados utilizando tecnología de intercambio de caras a través de inteligencia artificial.
El rostro del verdadero protagonista se reemplaza por la de otra persona, en este caso -o en muchos, para ser precisos- colocan las caras de celebrities.
Hace apenas seis meses, esto requería una codificación extremadamente compleja y un montón de tiempo libre.
Los deepfakes toman su nombre de un usuario de Reddit, quien perfeccionó el algoritmo para crear espeluznantes videos.
Después, en enero pasado, otro usuario de Reddit creó una app gratuita, llamada FakeApp, con un algoritmo incorporado que hace el intercambio de caras por ti.
La redes pornograficas están llenos de ellas. Estrellas de cine o de TV -fundamentalmente mujeres- aparecen supuestamente en actos pornográficos.
Los consumidores de este tipo de videos saben que lo que están viendo no es real, pero llegan al autoconvencimiento de que es una fantasía funcional.
Gal Gadot, Taylor Swift y Scarlett Johansson han sido algunas de las víctimas de estos artropellos al robo de identidades.
Un informe de BBC Mundo señala que este tipo de despliegues se suben al sitio web PornHub, donde las únicas diferencias entre la actriz de Hollywood Emma Watson y la falsa estrella del porno "Emma Watson" son "unos pocos pixeles, varias capas de ropa y una falta total de consentimiento".
Despierta preocupación la tecnología que permite poner el rostro de cualquiera en los cuerpos de actores porno
Con idéntica lógica -aunque con un objetivo menos dañino, claro- funciona "Arts and Culture", la aplicación de Google que encuentra a tu doble en pinturas famosas.
Una búsqueda en internet de "deepfake porn" arroja al menos 700.000 resultados.
La tecnología explotó tan rápido —y ya es tan fácil de usar— que prácticamente cualquiera puede crear pornografía personalizada en unas 12 horas.
"Esta herramienta lleva años disponible para los efectos especiales", dice Evgeny Chereshnev, director ejecutivo de la compañía de tecnología seguridad BiolinkTech.
Las fotos modificadas, por lo tanto, no son nada nuevo, pero la disponibilidad y nivel de realismo de los modernos deepfakes sí lo son.
Los expertos dicen que solo se necesita una computadora potente (con las prestaciones para procesar o editar video), una unidad de procesamiento gráfico y suficientes imágenes de tu objetivo, lo que, gracias a las redes sociales, YouTube o incluso Linkedin no es demasiado complicado.
Actualmente, hay versiones básicas disponibles para cualquiera: por menos de US$30, Adobe puede proveer las herramientas para crear una copia digital de alguien, aunque se necesitaría un costoso software profesional para llegar al siguiente nivel.
Adobe VoCo, es un programa que funciona permitiendo al usuario recrear la voz de alguien tan solo 20 minutos después de escucharla. Según BBC aún está en etapa de investigación, pero otras compañías como Lyre Bird tienen software más básico ya disponible para su uso.
Deepfaking es el nuevo "porno de la venganza", una antigua tendencia: exnovios que, para ajustar cuentas con sus ex, suben videos intimos a la web para estigmatizar, herir, degradar.
La abogada Ann Olivarius, quien ha trabajado con víctimas del "porno de la venganza" dice que recibe llamadas de clientes que fueron víctimas del deepfaking.
Mientras las celebridades pueden contar con abogados caros, y pueden, potencialmente, usar la ley de difamación para perseguir a los deepfakers (siempre y cuando puedan probar que la imagen causó, o puede causar, un daño grave a su reputación), para la gente común puede ser mucho más difícil emprender una acción.
En enero, un hombre australiano fue sentenciado a 12 meses de cárcel por usar Photoshop para superponer una imagen de la cara de su hijastra adolescente sobre imágenes de mujeres realizando actos sexuales, y ha habido casos similares en Reino Unido.
Dejá tu comentario