Los modelos de IA han logrado crear imágenes que parecen ya indistinguibles de la realidad Los sistemas de detección de imágenes generadas por IA no ayudan, sino que agravan el problema Y eso puede hacer que dejemos de creer incluso en imágenes y vídeos legítimos
|
etiquetas: inteligencia artificial , deepfakes , fotos
¿Está esa foto en todos los medios de comunicación desde varios ángulos? ¿No? Pues entonces casi 100% seguro que es fake.
Algunas fotos pueden escapar a este método, pero para el 99% de los casos te vale. Y el 1% restante seguramente sean cosas poco relevantes.
Cualquier mono de feria puede tener ahora una melodía promocional, con auto-tune incluído, de su partido o chiringuito efímero de turno, con un poco de financiación que encuentre por medio, ayudado por la visibilidad que le pudieran otorgar las RRSS.
Siendo tal melodía, indetectable 100% por el oído humano, si ha sido creada por inteligencia artificial o no.
Incluso puedes darle la letra y te compone e interpreta una canción.
Dentro de pico habrà “triunfitos del prompt” y quizás saldremos ganando.
aibusiness.com/responsible-ai/meta-develops-invisible-watermarks-to-tr
Sino quieres no.
Los que quieran colar fakes no las pondrán.
Por ejemplo, los medios prohibido subir algo sin esa marca y si no, multa.
Al igual que siempre el que le dedique tiempo y recursos a falsificar lo conseguira. Las medidas son para que no sea rentable ni facil hacerlo con pocos medios para poder limitarlo y/o tracearlo.