Tecnología, ciencia y cultura digital
Es posible que se gane una comisión por los enlaces en esta página

Pornhub prohibe los vídeos simulados con famosas mediante IA porque "no son consensuales"

Por
Es posible que se gane una comisión por los enlaces en esta página.

Pornhub acaba de unirse a Reddit y el servicio de almacenamiento de imágenes Gfycat en su lucha contra los conocidos como Deepfakes. El portal de vídeos porno ha anunciado que eliminará los vídeos en los que aparecen caras de famosas superpuestas mediante algoritmos sobre los cuerpos de actrices porno.

Según informa Motherboard, Pornhub ha llegado a la conclusión de que generar estos falsos vídeos a partir de las facciones de otra persona es claramente sexo no consensual. La plataforma ha comparado los deepfake con el revenge porn y ha anunciado que eliminará cualquier vídeo de ese tipo en la plataforma.

No toleramos ningún tipo de contenido no consensual en nuestra página y eliminamos ese tipo de vídeos tan pronto somos conscientes de su existencia. El contenido no consensual viola nuestras condiciones de servicio, y eso incluye el revenge porn, los deepfakes o cualquier otro contenido subido sobre una persona sin el consentimiento y conocimiento explícitos de esa persona. Estamos eliminando todos los deepfakes subidos por usuarios.

Publicidad

Una rápida búsqueda permite comprobar que aún hay muchos de esos vídeos aún circulando en Pornhub y son tan fáciles de encontrar como buscar “deepfake”. Aparentemente, Pornhub está esperando a que sean los propios usuarios los que denuncien el contenido como inapropiado. Es una manera de operar un poco paradójica teniendo en cuenta que los usuarios llegan a la plataforma precisamente buscando ese tipo de contenidos.

Lo mismo ocurre con Reddit. Pese a que las condiciones de servicio del popular portal prohiben de forma expresa cualquier contenido sexual o con desnudos subido sin el permiso de la persona que aparece en él, el subreddit de deepfakes (que es muy explícito) sigue en línea y activo. Tan solo parece que se han eliminado algunos vídeos. Gfycat ha explicado que sigue trabajando activamente en eliminar deepfakes.

Publicidad

Además de ser inquietantes, no consensuales y una forma de acoso contra las personas que salen en ellos, prácticamente todos los deepfakes violan además las leyes de copyright. Generalmente usan miles de imágenes extraidas de los motores de búsqueda sin comprobar si esas imágenes tienen o no autor. Aunque puede resultar complicado demostrar el uso de una imagen concreta, Reddit elimina cualquier contenido sobre el que se presente una reclamación de copyright.

El mayor problema de los deepfakes, como apuntan en Wired, es que técnicamente no se pueden considerar una invasión de la privacidad porque, a diferencia de las fotos robadas, se trata de un material falso, un montaje. A priori, los deepfakes están protegidos en Estados por la Primera Enmienda, aunque es posible que puedan ser llevador ante un tribunal como difamación.

Publicidad

Lo más probable es que los autores de deepfakes simplemente se muden a otras plataformas. Eliminar completamente este contenido de Internet va a ser muy complicado. De momento, ya se ven algunos usuarios del subreddit de deepfakes trasladar sus vídeos a Erome, Senvid y otros servicios con políticas más laxas.

No todos los deepfakes son porno. Las técnicas usadas para crearlos se han aplicado para otros propósitos más humorísticos, como poner la cara de Nicholas Cage en todo tipo de películas. [vía Motherboard]