#33 Por fin un comentario lógico. Los que vienen aquí resumiendo su bilis a antisanchezbildusecesión o anti derechafalangista se han metido tanto en el circo de si no estás con uno estás con el otro que se olvidan de que el problema es el circo entero.
#1#2 solo importa que gobiernen los suyos. Si hubiera un golpe de estado y saliesen los tanques a la calle, lo aplaudirían con las orejas. La democracia les sobra. No tengo ninguna duda.
#67 Hombre que solo se vea a una derecha desatada y cabreada a la que da miedo acercarse no quiere decir que sean mayoría, es más que no queremos líos y pasamos de ellos
#15 Hombre, yo no defiendo ni voto el capitalismo ni la monarquía, por tanto no defiendo ni voto tampoco la pobreza, ni con mis votos ni con mi prole. Hipocresía sería que yo criticase el capitalismo, la monarquía y la pobreza, pero luego sí les votase, con mis votos o con mi prole.
Ahora bien, es cierto que vivo en un país capitalista, monárquico y por tanto pobre. Pero eso no lo he decidido yo. Ha sido este país el que me ha hecho nacer en él sin yo pedírselo, y las decisiones por las que este país es capitalista, monárquico y pobre y subdesarrollado también son completamente ajenas a mí. Yo, en este sentido, solo soy una víctima.
#91 Respecto a los ggufs, que es el formato más popular ahora mismo, cada vez más autores los publican directamente.
Pero aparte de TheBloke (que parece estar sabático) están huggingface.co/LoneStriker y huggingface.co/bartowski
En reddit.com/r/localllama/ puedes encontrar mucha información, pero es un poco caótico y hay cosas para diferentes niveles.
Yendo a algo más avanzado, cada vez hay más proyectos que intentan hacer el tuneado de LLMs más sencillo.
Por ejemplo, está Unsloth, que puede funcionar sobre la versión gratuita de Google Colab: unsloth.ai/ github.com/unslothai/unsloth
Realmente el tema de tunear es más difícil seleccionar información de calidad real y ponerla en un formato compatible, que hacer el tuneo en si.
Ahora mismo incluso existe la opción de usar LLMs en móviles mediante Termux, pero necesita bastantes gigas de RAM y van muy lentos, pero cómo curiosidad no está mal. En r/locallama verás ejemplos.