#4 No hay ningún debate, la separación entre hutus y tootsies la hicieron los británicos. Los mismos que liaron el pollo que hay en Palestina, ése es su legado.
#48ahora resulta que el sábado hay aranceles y para el martes ya está la fábrica montada
Las políticas económicas llevan su tiempo, y los izquierdosos solo buscáis soluciones para ya.
Por eso os gusta tanto la máquina de imprimir billetes
La diferencia entre los obreros americanos y los españoles es que allí votan Trump porque saben cómo funciona el tema, y aquí gustan más las "soluciones" fáciles
#37 Eso es lo que se hace en este tipo de brotes.
Se sacrifica a la mayor cantidad posible.
A la larga se puede impedir el acceso de otras aves a las gallinas y demás, pero cuando ocurre un brote el sacrificio es la única solución.
#12 Eso lo dirás tú, yo sigo en Twitter y hago lo que me sale de los collons. Los indignaditos que se largan simplemente es porque no saben ni contraargumentar a alguien con tan poco cerebro como un nazi.
#62 podrán cultivar los 4 que tengan la tierra como mis tíos en el pueblo que ya viven en una casa con jardín, huerta y gallinas... la cantidad de urbanitas viviendo en Madrid y Barcelona van a estar muy jodidos... y en Holanda esta urbanizado el país pero muchísimos mas tienen el terreno en su jardín para plantar invernaderos...
#14 Madre mia... Si quisieran poner en orbita una nave principal como la de hace 40 años la pondrian, estos lanzamientos no son para eso, son para aprender a lanzar cosas mas gordas, mucho, mucho mas gordas. Hablamos de lanzar 100-150 toneladas en lugar de 2. Hablamos de recuperar las piezas. Hablamos de volver a lanzar las mismas piezas sin esperar meses.
Pero eh, aqui todos lo hacemos todo con un chasquido de dedos. Echa un rato largo leyendo los articulos de Daniel Marin y la ciencia tras los lanzamientos antes de volver a escribir, por favor, no te pongas mas en ridiculo.
No he visto eso del Gallo (tampoco que te digo que no) pero en unos trabajos restaurando una calzada romana por Soria precisamente comentaba que se había encontrado miles de clavos de los del calzado (ahora, si afirma que esos clavos son de zapatillas y no de sandalias, no lo sé)
#13 ¿Y la versión de escritorio puede operar aislada de internet?
Cuando digo "operar" no me refiero solo a ejecutarse sino a ser mínimamente funcional (entiendo que con una base de datos reducida claro)
Porque asumo que la barbaridad de recursos que indica #9 es porque la IA carga en RAM además de su código de ejecución toda su base de datos de referencia.
#13 OLLAMA (Open-source Library for AI Models and Applications) es una aplicación capaz de cargar modelos largos de lenguaje (LLM) que ofrece una interacción mediante CLI, pero su verdadero potencial es su uso mediante API. mitsuhakitsune.com/es/2024/03/21/ollama-tu-ia-privada-y-gratuita-simil
Nos permite conectarla y utilizar cualquier interfaz de nuestra preferencia, pero no sólo eso, si no que podemos conectarla con otros proyectos LLM como LangChain y expandir aún más su potencial
#13 En tu escritorio puedes ejecutar modelos pequeños de como mucho 7b, pero incluso diría que un 7b es mucho, 3.5b o menos. Para algunas tareas pequeñas pueden servir.