#13 Esto es como con Milei y la dolarización, que había gente que ganaba 3000 pesos y creía que iba a pasar a ganar 3000 dólares. Si es que con esos votantes, qué va uno a esperar.
#15 Muy buen comentario, ese bar que tu dices ha sabido ver la oportunidad y la ha aprovechado. No hay más, los otros latigueros que aguanten el chaparrón, que sólo piensan en su bolsillo, lo demás se la suda.
#3 es que si hacen la encuesta intentado ver cuántos votan a "izquierdas" (incluyamos PSOE para que no salgan 0 resultados), deben de ser básicamente un 10% de polis municipales enchufados en feudos del PSOE. Los demás, de Ayuso a Alvise.
#10 Ese parece más bien un gilipollas sin criterio alguno que se tragará y abrazará como la verdad absoluta todo lo que le suelte la gente que tiene cerca.
Si trabajara en un refugio de burros rebuznaría e intentaría violar en época de celo al peón que les da de comer...
#1 Todas las mañanas veo a más de uno saltándose líneas contínuas. Hemos llegado a un punto en el que reducir el límite de velocidad o bajar la tasa de alcoholemia no va a reducir los accidentes. Ahora, cámaras en todas las esquinas y en todas las entradas y salidas de autovías y 200 euros a cada uno.
#46 estoy igual, lm studio me parece mucho más lento, incluso usando más cores, ollama parece más ágil en el desempeño. ¿Sabes cómo quitar el <think> de las respuestas con ollama?
#1 A mi lo que más me jode no es "ese que lleva prisa y que ves cada dia".
Son todos los que van haciendo el cafre por la carretera, viendo el móvil e invadiendo el carril contrario, acelerando cuando estás adelantando, salir de las medianas sin importarles el resto de conductores, comiéndote el culo sin motivo, etc.
Todos esos comportamientos egoístas que hacen que ir por la carretera sea más peligrosa para todos.
#1 Yo he probado un poco de todo, por curiosidad. Mi mejor resultado en un ordenador modesto ha sido Meta-Llama 3.1 8B Instruct Q8. He probado DeepSeek R1 Distill Llama 8B y no llega a su nivel. Obviamente hablo de versiones bastante pequeñas de 8 GB y que se pueden ejecutar con una tarjeta gráfica normalita. Para mí Meta-Llama (la uso con LMStudio o GPT4ALL que están en los repos de Manjaro) es sorprendentemente buena y muy solvente en todos los campos que he tocado: conversación general muy buena, aceptable en programación, cultura general, matemáticas, etc. No me esperaba esa calidad.
En cuanto a las versiones online DeepSeek me parece la mejor por la forma en que ha manejado problemas que le he planteado. No me repito porque lo dije hace unos días, pero me ayudó a reparar un electrodoméstico y solo le faltaba usar ella misma el multímetro... Parecía una persona que comprendía el problema de verdad
PS. Le pregunté a Meta-Llama sobre si se podía multiplicar dos matrices cuadradas con menos multiplicaciones que el algoritmo "normal" de producto escalar de filas y columnas. Acertó de pleno y me explicó que hay mejores métodos, etc. En cambio la versión Destill de Deepseek se inventó una tontería increíble. En cambio la versión original de DeepSeek acertó y muy bien en la explicación.
#1 el problema de una IA no conectada, es el mismo que un periódico sin Internet, que pierde el 90% de su utilidad. Te servirá para traducir, o resumir, pero será más complicado que sirva para algo más avanzado
#1 Asi que para ti, el camino deberia ser que las empresas te ofrezcan la posibilidad de que te instales su producto en local para que así no les tengas que pagar una suscripción... Solo por curiosidad, a qué te dedicas?