#86 NO. Solo he probado y me han funcionado las de Ollama y gguf.
Se pueden alquilar GPUs en asía pero no tengo interés en modelos enormes. No necesito los LLMs a ese nivel. Para tonterías pago por la API de DeepSeek (que estaba caída hace unas horas, no sé ahora). He visto por twitter un vídeo con 3 Apple M1 petados de RAM haciendo pruebas y parecía real. Ni idea!
Seguro que hay un montón de gente haciendo su trabajo y en unas horas...
#71 Simplemente se ha creado el nuevo modelo con el sistema maestro-alumno. Así que es una técnica para que ese modelo tenga las funcionalidades del maestro pero con un tamaño menor.
Para la mayoría de expertos ese modelo alumno lo suelen considerar un modelo menor del mayor.
#71 La cuantizada de Phi (Microsoft) se llama Phi_Qx y la cuantizada de Llama (Meta) Llama_Qx.
Te molesta, pues lo haces privativo como OpenIA. Evitas confusiones y ni siquiera tienes que dar explicaciones.
Si no te gustan los GGUF para uso local en PC, no los uses. Es sencillo pero déjanos vivir un poco.
#36 El de 671B se puede bajar. Pero obviamente no tirará bien en ninguna maquina normal, ni siquiera en estaciones de trabajo que no monten como mínimo A-100.
#92 Supongo que para él, chatGPT no funciona (o al menos funciona igual de mal que con un "lenguaje imposible"), es decir, chatGPT estaría al límite de sus posibilidades o muy cerca.
#88#1 Me corrijo, durante la charla, en el audio dice que por el hecho de ser plagiarismo es lor po que no tienen valor para entender nada respecto a lenguaje o cognición, y que funcionan igual para "actual languages" que para "impossible languages", sin hacer distingos.
Parece un argumento pobre, porque ignora el hecho de que funcionan. Pero es posible que en algun sitio ya hubieran desarrollado algun argumento basado en "papagayos ideales" o algo asi.
#38#107 A mí me da que hemos visto series diferentes. A mi me encantó y de Perdidos, nada de nada. Por cierto tiene un 7,5 en Rotten Tomatoes y en IMDB.
Se pueden alquilar GPUs en asía pero no tengo interés en modelos enormes. No necesito los LLMs a ese nivel. Para tonterías pago por la API de DeepSeek (que estaba caída hace unas horas, no sé ahora). He visto por twitter un vídeo con 3 Apple M1 petados de RAM haciendo pruebas y parecía real. Ni idea!
Seguro que hay un montón de gente haciendo su trabajo y en unas horas...