#10 Yo la tengo instalada en GPT4All, donde se puede instalar de manera bastante más sencilla. También la he probado con docker y con ollama., donde también funciona, pero no detecta la GPU y corre mas lento sobre CPU
#25 Desgraciadamente yo no tengo grada. Todos me han defraudado. Solo opino que en caso de inacción en caso de desastre el responsable es quien tiene las consecuencias.
#52 Da igual el valor.Si al coche le falta un trozo de plástico de el frontal, no puede salir así al mercado hasta que encuentres otro fabricante que te lo suministre, y tal y como están las cosas, mejor que no piensen en china.
Son sus costumbres y hay que respetarlas. Acaso aquí en occidente no ha habido operaciones de cambio de genero a menores de edad ? Y luego se han arrepentido ? Si esto es lo que los padres tienen que aportar culturalmente a sus hijos, allá ellos.
#73 La descripción que das también se podría aplicar a un niño. Y siguiendo con la analogía, la IA acaba de cumplir 3 años. Que podrá hacer cuando tenga 6?
#71 Tras 2.500 años de investigación aún no tenemos una definición clara de que es pensar, o qué es la conciencia. Seamos prudentes. Los ratones pueden razonar, a su manera resolviendo laberintos. A su manera las maquinas hacen algo parecido.
#9 Cada vez que hay una crítica a un político del PP hay alguien poniendo el ventilador y afirmando que "todos son iguales", lo que no es cierto, hay malos y muy malos.
#54 Te puedes descargar la versión completa, pero necesitarás 300Gb de VRAM y pesa 404Gb. En cualquier caso si el modelo es más eficiente tendría que funcionar mejor que otros modelos en local. Parece que en GPT4ALL no funciona. Voy a probar de correrlo en Ollama.