edición general
ElSev

ElSev

En menéame desde agosto de 2007

11,61 Karma
540 Ranking
31 Enviadas
4 Publicadas
33K Comentarios
17 Notas
  1. @ElSev va a haber que hacer una colecta para comprarle una chaqueta a ese facha, la de la comunión se le ha quedado pequeña xD
  2. @ElSev ¿En serio da 9000 al mes? ¿Esos datos de donde salen?

    (joder, es que de ser así en año y medio lo tienes amortizado)
  3. @ElSev Huele a churros.
  4. @ElSev Ni caso te van a hacer, la cuestión ahora de los @admin son pelotas fuera con los asuntos de insultos, provocaciones, odios o racismo. Yo he denunciado alguna vez por desear mi muerte o insultos directos . Deben pensar, como tú también lo haces ( no es así, la verdad) pues que te den. Manda la publi y no pueden perder más fieles.
  5. @ElSev @ripio @ElenaTripillas Pues las demás han llegado con regularidad. Eureka, Senserrich,labrujula...
  6. @ElSev le saltaría la luz anoche :-|
  7. @ElSev ¡Es muy majo! Casi consigo que venga justo la semana del tren aquel que no cabía en el túnel
  8. @onainigo hombre, hay algunos negativos fijos, si pones algo de Xataka tienes altas posibilidades de dos negativos con un comentario sobre xatamierda que copia, pero sin dar un enlace alternativo, si pones de algún sketch de Polonia tienes también dos negativos fijos con un comentario sobre que no tiene gracia, si estás cerca de 100 de karma en la noticia siempre hay un par que intenta tumbarla para llevarse karma, ¿pero a usuarios? Tenemos varios monotema que esos lo mismo están arriba que están abajo del todo, porque incluso en su monotemismo de vez en cuando ponen algo interesante, es más la fuente que el que lleva el cántaro @Zoidborg @Ripio @painful @plutanasio @ElSev @MiguelDeUnamano
  9. @Zoidborg @Ripio @painful @plutanasio @ElSev
    @MiguelDeUnamano
    Que sepáis que no votáis negativo por su spam recurrente, ni por sus envíos muy humanos, ni por sus originales etiquetas, ni siquiera, por la valiosa info de cursos ,seminarios,suscripciones y ofertas de viajes xD xD xD . Lo hacéis porque es un usuario activo y sois haters, pobrecito.
    old.meneame.net/story/polemica-escritora-ministerio-tiempo-bbc-asegura :wall:
  10. @onainigo @Zoidborg @painful @plutanasio @ElSev
    La culpa de todo es de Chrome:
    www.meneame.net/notame/3619663

    (Es tan mierda el chrome segun sus palabras que lo usa a todas horas)

    Y la culpa de no editar es de MnM y de los usuarios que pudiendo hacerlo no lo hacen
    www.meneame.net/story/urna-contiene-restos-brasidas-general-espartano-

    Y la de enviar duplicadas es del falaz contubernio.
    Y patatas, porque si yo lo hago está bien.

    Es el mundo que no quiere darmelo mascadito.
  11. @visualito Pero de 12 ya hacia un par de días que había bajado, creo, es difícil seguir todo el progreso técnico.

    Si usáis el webui de automatic han añadido el comando "AND" permitiendo fusionar 2 entradas de texto old.reddit.com/r/StableDiffusion/comments/xwplfv/and_prompt_combinatio
    En 4chan, que es donde se esta desarrollando hay algún ejemplo útil de la diferencia boards.4channel .org/g/thread/89013562#p89014696


    @thorin @ElSev @iveldie
  12. @Nadieenespecial

    A mi me sirve, tengo una RTX 2060 con 12 GB de VRAM y 64GB de RAM en el equipo

    @thorin @ElSev @iveldie
  13. @thorin Ya lo he visto. A cambio de 25GB d ram, casualmente solo tengo 24 :shit:
    Ya llegara, y total, tampoco tengo nada sobre lo que entrenar, estoy haciendo una inversión textual, con unas imágenes de prueba, y como pensaba, las imágenes de entrenamiento, o sus etiquetas son una mierda

    @visualito @ElSev @iveldie
  14. @Nadieenespecial Parece que hay soluciones que juegan entre la RAM y la VRAM, permitiendo que VRAM de 8gbs

    www.reddit.com/r/StableDiffusion/comments/xwdj79/dreambooth_training_i

    @visualito @ElSev @iveldie
  15. @thorin Que yo sepa no, es simplemente el uso de menos Vram, pero parece que en nada ya se va a poder usar en las de 8GB de VRam que es el tamaño mas común entre las gráficas modernas de consumidor. Hace unos dias pedían mas de doce, asi que básicamente necesitabas una gráfica profesional, ya que las XX90 de nvidia en realidad son el equivalente de las antiguas Titan, no gráficas de videojuegos, en la ultima generación por poner un ejemplo tenían el conector ese que permite usar gráficas en paralelo, cuando el resto de las gráficas que se supone que son para el consumidor no.

    Comentar que en esta webui github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Textual-Inversion que es la que yo uso la inversión textual ya esta implementada sin tener que andar de historias

    @visualito @ElSev @iveldie
  16. @visualito He estado leyendo, pero no acabo de enterarme.
    ¿Tienen alguna ventaja más allá de requerir menos VRAM?

    @Nadieenespecial @ElSev @iveldie
  17. @visualito Parece que Colab no ha podido con toda la gente experimentando con Stable Diffusión y han puesto un sistema de pago por unidades de computación que no entiende nadie: colab.research.google.com/signup/pricing

    La gente está experimentando con otros servicios porque entre eso, y la lotería de que te toque alguna GPU decente, es algo frustrante.

    Este video tiene buena pinta (Aunque no lo he visto entero), ya que muestra cómo hacerlo en otra plataforma similar de pago, pero está patrocinado, y seguramente no tardará en salir tutoriales para sitios alternativos: youtu.be/7m__xadX0z0
    Es gracioso que el youtuber ha tenido que rehacer el video varias veces porque han introducido mejoras mientras grababa.


    CC/ @Nadieenespecial @ElSev @iveldie
  18. @thorin
    Si, esa es la clave, al ser abierto la velocidad con que avanzan las cosas es impresionante

    Voy a espera a ver si actualizan una herramienta que tengo porque me gustaría probar el entrenamiento en mi máquina sino, google collab.

    @Nadieenespecial @ElSev @iveldie
  19. @visualito Gracias al home Office he estado entrenando modelos a través del Colab de abajo: github.com/TheLastBen/fast-stable-diffusion

    Tengo que decir que va muy bien y es más rápido de lo que pensaba. Unos 20-30 minutos en si (más el tiempo previo necesario para arrancar el Colab)
    Además, lo actualiza de vez en cuando.

    El mayor problema es seleccionar las fotos, pero en un caso en que tenía 4 fotos originales con ángulos diferentes de un mismo objeto, acabó sacando cosas de una calidad que no hubiera esperado el lunes pasado.
    :->

    Yo creo que merece la pena pagar los 10 € del Colab en vez de Dall-E 2 por la flexibilidad de Stable diffusion, y que la comunidad está sacando cosas fáciles para gente como yo, que no sabe programar.

    CC/ @Nadieenespecial @ElSev @iveldie
  20. @visualito Es que si he visto hacer cosas así con el inpainting o el img2img, es mucho trabajo y hay que saber hacerlo, pero también lo facilita inmensamente si te haces una foto en la pose que buscas.

    Pero es que en el video están haciendo un cherrypicking brutal de los resultados, y que aunque no hayan postprocesado han tenido que probar muchas muchas combinaciones de parámetros de generación para obtener las imágenes

    Lo que intento decir es que va ser tan fácil o difícil como coger a alguien que ya este en el modelo, y les hagas hacer esas diferentes cosas. Coge a tu famoso favorito, e intenta hacer que haga cosas como en el video de corridor crew

    Que a lo mejor es que yo soy muy torpe :shit: pero no es tan fácil como lo pintan

    @thorin @ElSev
  21. @Nadieenespecial

    Reentrenando el modelo da una imágenes que no es posible conseguir con impaiting o imgtoimg pero ni de cerca.,

    mira este video:

    www.youtube.com/watch?v=W4Mcuh38wyM

    @thorin @ElSev
  22. @visualito Con Dreambooth estas reentrenando el modelo entero, mientras que con la inversión textual solo estas relacionando un concepto con el modelo ya existente, o muy mal lo he entendido o Dreambooth usa muchísimos mas recursos.
    Tampoco he probado a usarlo, aparte de que no puedo reentrenar como tal porque pide mas de 8gb d vram (aunque al principio eran unos 40, antes de ayer 16 y hoy ya baja de 12, así que en un día o así podre :shit: ), es que no tengo un conjunto de imágenes preparadas para entrenar nada, que es lo mas importante. Ah y que yo solo trabajo en local

    @visualito Sera mas trabajoso, pero con img2img, inpainting y el resto de opciones avanzadas se puede hacer ese tipo de cosas

    A ver que sale de aquí a un par de meses, había uno de esos furrys que había ya encargado 8 rtx A6000 para entrenar sus paranoias, que le llegaba en noviembre. Yo flipo con la peña, cuesta seguir el ritmo de los avances

    @thorin @ElSev
« anterior12

menéame