DeepSeek ha llegado a denominarse como el "futuro" de los modelos de IA, debido a que han conseguido algo comparable o incluso mejor a ChatGPT y otros modelos utilizando menos tarjetas gráficas de NVIDIA, siendo más eficiente y más barato en costes. De hecho, el mismísimo Raja Koduri de AMD está a favor de usar DeepSeek indicando que se puede llegar a utilizar en un PC que tengamos en casa con nuestras propias GPU, pues resulta que no se requiere estar conectados a Internet y se puede ejecutar de forma local.
|
etiquetas: deepseek , chatgpt , openai , nvidia , inteligencia articial
x.com/RajaXg/status/1883727718614974933
x.com/RajaXg/status/1883727718614974933
Quizás de momento sigue sin funcionar muy bien, pero esta posibilidad tiene unas ventajas de privacidad y control que son bastante potentes.
En lo personal todas estas cosas al principio me producen recelo, ya pasamos muchas veces por eso del "primero te lo regalan el segundo te lo venden"
Pero me refería lo de lo "primero lo regalan, luego lo venden".
Las empresas de IA ya estaban pensando en utilizar centrales nucleares para suministrar energía a las IA.
Centrales nucleares o paneles solares me da igual. Seguia siendo una cantidad de derroche inasumible con semejante gasto.
Si antes tiraban del centro de datos también estaban consumiendo recursos.
1. El consumo de entrenar una IA : Altísimo, se requieren cientos o miles de GPUs procesando durante meses.
2. El consumo de preguntar a una IA entrenada: Infinitamente menor, del orden de segundos de proceso, aunque con máquinas caras.
El ahorro sobre el punto 2, a gran escala, se puede notar mucho, pero el gasto energético principal, y para el que imagino que querían conectarse a fuentes potentes y constantes de energía, es el 1.
Pero vas a necesitar no solo gráfica si no espacio de disco y ram, calcula aproximadamente y de forma muy burda que el número de parámetros (7billones, 8 billones ...) es el doble de la ram que necesitas, así que para el de 8b necesitas unos 4,5 o 5gb de ram. Para el de 32 son unos 20gb
Y conforme uses modelos con mas parámetros, aunque quepan en ram, dependerá de tu capacidad de cálculo (la cpu si no tienes… » ver todo el comentario
Lo digo porque 1 Tb permite guardar un billón de datos (entero 8 bits), si son gigas es la milésima parte.
Por ejemplo para las de 8B son 4,9gb, para la de 14B son 9gb y la de 70B son 43gb
Y eso es solo para volcar el modelo, luego necesitas espacio para el contexto.
Yo he usado ramalama para probarlo: github.com/containers/ramalama. En el README del repositorio explican como instalar ramalama y como ejecutar un modelo. Cambias ese modelo por cualquiera de los deepseek disponibles en Ollama y te va a funcionar perfectamente a la primera.
Lo que si coincido es que en español es algo limitadillo.
También puedes ejecutar "ramalama; beep ; beep" en la consola
youtu.be/Fuzzpcog7tQ?si=rwM4ZBSMtzXxfsMp
Pero hay que verlo de otro modo, y si pones el 8B o incluso el 1,5B en un home assistant al que solo le pides que ponga alarmas y poco mas?
Luego claro, si quieres mas, yo no bajaría del 70B, aunque eso ya son palabras mayores...
Y decir que DeepSeek R1 funciona en un PC es fliparse mucho. Prácticamente nadie puede ejecutar R1 y las versiones que más o menos se ejecutan en local (en un buen equipo) ya las teníamos antes.
Deepseek-r1 es 671b... con lo que necesitas muchísima VRAM/RAM...
Lo segundo, esos son modelos qwen y Llama destilados con R1, ese es el tamaño de la meada de cara que se ha marcado China: que se han permitido mejorar hasta otros modelos de origen chino y los modelos de los competidores norteamericanos.
Lo tercero, incluso los modelos destilados son la leche, los modelos de 14b y el de 32b… » ver todo el comentario
Como dirían en "Silicon Valley" , "This guy f*cks"
¡Bravo! ¡Mis dieses!
Fin como tal no, pero que les va a costar seguir vendiendo el pro a 20€ o el superpro a 200€ al mes... eso si.
No existe "deepseek-R1:14b" (ni 1.5b, 7b, 8b, 32b o 70b), es un "distill" de qwen2.5 (o algún otro modelo).
Deepseek-R1 es 671b, por lo que se necesita muchísima VRAM/RAM.
La confusión viene por la puta mierda de ollama y la manera errónea de nombrar a los "distills" de deepseek-r1.
Esta, en el 70B son 1 o 2 palabras por segundo. Sigue siendo lento, pero es un buen salto.
Y si bajas a 14B o 32B es muy usable.
es como decir como está Linux es el final de mac o windows.
Con este apenas se equivoca y creo que ha sido más por no entender bien a que me refería que por otra cosa. Y cuando le he indicado que un resultado no era el que me interesaba lo ha corregido bien.
Me parece que los demás si no espabilan se van a quedar atrás.
Así que en unos meses veremos si la alternativa china pasa sin pena no gloria o realmente desbanca a chatGPT.
Conozco a más de uno que en su día tuvo los racks de minería enchufados a la farola más cercana...
Picaresca que le llaman. Aparte hay que tener en cuenta lo que te dé, si la usas para algo laboral y genera beneficios s tu empresa no creo que la factura sea un problema sino un gasto de empresa.
Vamos, que los costes son muy relativos.
x.com/DotCSV/status/1883919899170402799
Nivelaco el de ese pozo de inmundicia llamado elchapuzasinformatico.
Es que das unos argumentos superconvincentes...