edición general
10 meneos
88 clics
La IA ha avanzado tanto que el problema no son solo los deepfakes. Es que desconfiamos incluso de las fotos reales

La IA ha avanzado tanto que el problema no son solo los deepfakes. Es que desconfiamos incluso de las fotos reales

Los modelos de IA han logrado crear imágenes que parecen ya indistinguibles de la realidad Los sistemas de detección de imágenes generadas por IA no ayudan, sino que agravan el problema Y eso puede hacer que dejemos de creer incluso en imágenes y vídeos legítimos

| etiquetas: inteligencia artificial , deepfakes , fotos
Hace décadas que desconfiamos de las fotos, la era photoshop lleva con nosotros una eternidad.
Pero mira que es fácil. Ves una imagen de Donald Trump esposado por la policía en Churrita69 en Twitter.
¿Está esa foto en todos los medios de comunicación desde varios ángulos? ¿No? Pues entonces casi 100% seguro que es fake.

Algunas fotos pueden escapar a este método, pero para el 99% de los casos te vale. Y el 1% restante seguramente sean cosas poco relevantes.
Más que las fotos, acojona más la música hecha con IA.

Cualquier mono de feria puede tener ahora una melodía promocional, con auto-tune incluído, de su partido o chiringuito efímero de turno, con un poco de financiación que encuentre por medio, ayudado por la visibilidad que le pudieran otorgar las RRSS.

Siendo tal melodía, indetectable 100% por el oído humano, si ha sido creada por inteligencia artificial o no.
#5 los generadores de música son muy divertidos.

Incluso puedes darle la letra y te compone e interpreta una canción.

Dentro de pico habrà “triunfitos del prompt” y quizás saldremos ganando.
Me da terror la utilización geopolítica que tendrá la creación de imágenes y videos por IA. Surgirán guerras por las consecuencias de las IA.
Por otro lado, si a mucha gente le supone esto un problema, creo que la solución habría que abordarla desde el otro lado: en lugar de pretender que las cosas creadas con IA incluyan algún tipo de marca de agua, que de una manera u otra se podría eliminar, lo que hay que hacer es crear sistemas que certifiquen que cierta creación la ha realizado una persona.
Si no hay forma de distinguir si una foto, o una obra, o lo que sea, lo ha hecho un humano o una IA... ¿Cuál es el problema?
La buena noticia es que ya no nos podrán engañar nunca más con una imagen o un vídeo.
#2 Ni informar.
Joder con la foto, lo de los jovenzuelos sionsistas del otro día.
Se intenta meter el equivalente de lo que en papel se llamaba marcas de agua pero en patrones digitales que el ojo humano no detecta pero los programas si para poder pasarlo por un programa en caso de duda. No funciona siempre pero funciona bastante bien.

aibusiness.com/responsible-ai/meta-develops-invisible-watermarks-to-tr
#7 si quieres puedes ponerselo a la imagen.

Sino quieres no.

Los que quieran colar fakes no las pondrán.
#9 con creerse sólo las que lleven, arreglado.
Por ejemplo, los medios prohibido subir algo sin esa marca y si no, multa.
#10 no subiran ninguna foto por miedo a denuncias
#9 En herramientas personales asi es pero las personales tienen menos rendimiento que los servicios online y en los servicios online se va a poner la marca quieras o no.

Al igual que siempre el que le dedique tiempo y recursos a falsificar lo conseguira. Las medidas son para que no sea rentable ni facil hacerlo con pocos medios para poder limitarlo y/o tracearlo.
stalin seal of aprobal
Esto es un gran retroceso, solo podremos creernos lo que veamos nosotros mismos. Todo lo que ves en una pantalla puede ser falso y dentro de poco todo lo será.
comentarios cerrados

menéame