edición general
267 meneos
5411 clics
Cómo instalar DeepSeek para usarlo de forma local en tu ordenador Windows, macOS o GNU/Linux

Cómo instalar DeepSeek para usarlo de forma local en tu ordenador Windows, macOS o GNU/Linux

Vamos a explicarte cómo instalar DeepSeek en tu ordenador, para poder utilizarlo cuando quieras. Hay varias maneras de hacerlo, pero nosotros vamos a intentar recurrir a una de las más sencillas que sean posibles, y que funcione tanto con Windows como con macOS y GNU Linux. Para eso, vamos a recurrir a un programa que se llama Ollama, y que sirve para poder instalar distintos modelos de inteligencia artificial y lanzarlos en tu ordenador. Entre ellos está DeepSeek. Se instala como una aplicación normal, aunque su utilización es un poco...

| etiquetas: instalar , deepseek , ordenador , forma , local
Comentarios destacados:                  
#36 Marchando un erronea por insistir en montar qwen y llama 3.3 y llamarlos deepseek por el ajuste fino.

Ollama no puede correr aun Deepseek, es un model de 600 gigaparametros y todavia no han subido las cuantizaciones a 2 bits huggingface.co/unsloth/DeepSeek-R1-GGUF que es lo unico que podrias ejecutar en una sola maquina.
acabo de probarlo con lm-studio, en 3 clicks corriendo, lmstudio.ai/beta-releases
#4 LM-Studio, el que menciona #2 , es un instalador para múltiples modelos. Lo hay en AppImage.
#5 en el enlace que he puesto esta la beta de la ultima version en .AppImg y en .deb (ademas de las versiones para windows y mac)
#5 No lo conocía pero cuando hablo de snap o flatpak es por qué son jailroot (es el mejor término que se me ocurre para describirlo) para las app que instalas en tu so
#7 La gente suele usar mas bien AppImage porque es más portable y no requiere absolutamente nada instalado previamente. Pero si eres un poco paranoico, se recomienda usar conjuntamente con FireJail.
#8 más cosas nuevas. Soy usuario de Linux y uso Gnome. Solo conozco flatpak y snap.
#2 Sigue teniendo filtros de moralidad, no puedo hacer según que preguntas, no le veo utilidad. Para eso sigo usando servicios online.
Marchando un erronea por insistir en montar qwen y llama 3.3 y llamarlos deepseek por el ajuste fino.

Ollama no puede correr aun Deepseek, es un model de 600 gigaparametros y todavia no han subido las cuantizaciones a 2 bits huggingface.co/unsloth/DeepSeek-R1-GGUF que es lo unico que podrias ejecutar en una sola maquina.
#36 Es increíble cómo la mentira esa sigue viva! y cada vez más!

Me estoy cagando en ollama mucho!
#36 El de 671B se puede bajar. Pero obviamente no tirará bien en ninguna maquina normal, ni siquiera en estaciones de trabajo que no monten como mínimo A-100.
#48 Ah, ahora veo que ya lo tienen. Voy a ver si de verdad funciona...
#48 Pues de momento con 4 H100 y 1 tera de RAM no chuta. Seguramente lo han probado -si es que lo han probado- en alguna configuracion de 8 GPUs sin hacer descarga a la cpu.
#36 "Ollama no puede correr aun Deepseek"
FALSO. Al menos he visto un par probando la versión 14b (y yo la 32b funcionando)
#46 (en un A10 24G VRAM)  media
#67 Y si yo entreno el ALIA con los <think>de Deepseek, ¿pasa a ser un Deepseek R1? Pues segun los de ollama, si. No se, a mi me parece que a un llama 3.3 con el chink hay que seguir llamandolo Llama y no "deepseek 70B"

Deepseek R solo tiene un modelo, el de 671B. Que cabe en una maquina con un tera de RAM pero muy rapido no va a ir (luego te digo). Han sacado versiones cuantizadas ya los que suelen hacer los GGUF, pero esas no son las que tienen ahi.
#71 La cuantizada de Phi (Microsoft) se llama Phi_Qx y la cuantizada de Llama (Meta) Llama_Qx.
Te molesta, pues lo haces privativo como OpenIA. Evitas confusiones y ni siquiera tienes que dar explicaciones.
Si no te gustan los GGUF para uso local en PC, no los uses. Es sencillo pero déjanos vivir un poco.
#75 No se como lees que me moleste. Lo que quiero decir es que no nos hagamos trampas al solitario diciendo que "ya me funciona deepseek". Yo solo he conseguido ejecutar con vLLM el modelo sin cuantizar, en 12 GPUs, y con llama.cpp en 4 GPUs las cuantizaciones gguf que ha hecho unsloth y que hace 15 minutos todavia no estaban en ollama.

Tu has conseguido ejecutar Deepsek R 671, en alguna cuantizacion?
#86 NO. Solo he probado y me han funcionado las de Ollama y gguf.
Se pueden alquilar GPUs en asía pero no tengo interés en modelos enormes. No necesito los LLMs a ese nivel. Para tonterías pago por la API de DeepSeek (que estaba caída hace unas horas, no sé ahora). He visto por twitter un vídeo con 3 Apple M1 petados de RAM haciendo pruebas y parecía real. Ni idea!

Seguro que hay un montón de gente haciendo su trabajo y en unas horas...
#71 Simplemente se ha creado el nuevo modelo con el sistema maestro-alumno. Así que es una técnica para que ese modelo tenga las funcionalidades del maestro pero con un tamaño menor.

Para la mayoría de expertos ese modelo alumno lo suelen considerar un modelo menor del mayor.
La cuestión no es cómo instalarlo, sino qué hardware necesitas
Lo dicho, errónea.

NO es deepseek-r1, son "destilados".

A ver si la peña se entera de una vez que "ollama" ha estado mintiendo y que casi nadie está corriendo Deepseek-r1 en modo local! (se puede, pero se necesita un equipo con muchísima RAM/VRAM).
#44 Un destilado es un método que más o menos proporciona un rendimiento parecido al modelo grande. Sí que es una mejora sobre un llama o un qwen normal.
#44 La verdad si que es curioso que lo pongan con tags directos de deepseek-r1:XX en vez de los que correspondería de los distilled. Hay que entrar en la ficha de ollama para verlo: ollama.com/library/deepseek-r1
Para ver requisitos aproximados de VRAM y demás, mejor buscar por el modelo con el nombre completo (DeepSeek-R1-Distill-Qwen-XX o DeepSeek-R1-Distill-Llama-XX según la web de ollama).
Hay tablas como nodeshift.com/blog/a-step-by-step-guide-to-install-deepseek-r1-locally para poder contrastarlo.
Yo uso la 70b en una GPU de 40 GB y va lentita. Tengo que mirar los tokens que saca.
#25 Funciona en local através de ollama, igual no has entendido que ollama no pasa los datos a nadie
#26 Quizá per se no, pero se puede hacer con ngrok, open-webui o incluso scripts en Python.
#52 Windows no es un programa de código abierto.

Ollama si.

Y deepseek r1 también.
Solo 5 gigas???? Como es posible?
#24 Milagro, milagro
#24 Porque es un modelo pequeño.

Imagina que tienes el ferrari de leclerc, puedes cambiarle los neumaticos por unos de calle, quitar el motor y poner uno de calle, quitar la caja de cambios... etc.

Sigue siendo el ferrari, tiene su aero y tal, pero no rinde igual.

El modelo r1 son 671B de parámetros y ocupa unos 400gb, pero se ha conseguido entrenar modelos como llama y qwen que son mas pequeños (1.5 7 8 14 32 y 70B) usando prompts de deepseek r1.

esto los mejora un huevazo, y además son mas "portables". Siendo los modelos que casi todo el mundo puede montar los de 7 8 o 14B (4,5 a 10gb de ram)
#24 Porque es mentira.
NO es deepseek-r1, es un "destilado" de otros modelos con algunas instrucciones de deepseek.

Puto ollama y sus nombres erróneos.
Que ya dudo si lo hicieron a propósito... para que la gente los prueba y diga "pero si es una mierda...!", cuando NO están corriendo deepseek-r1 sino los "destilados".
#41 Efectivamente. Son llama's y qwen's re-entrenados con R1. También está el modelo R1 original con "capacidad de razonar" pero ese no rula en el 99'9% de PCs
#45 Sí que se puede porque 1. el entrenamiento también incluye datos fiables de tianmen y taiwan, y 2. hay diversas técnicas de quitar censuras de un modelo.
#58 Ok, gracias. ¿Puedes darme más información del segundo punto? Me interesa.
#69 Hay varias formas de quitarle censura a modelos. Una es entrenarlo con el tipo de datos que quieres que dé, y otra es con una técnica llamada "abliteration" que básicamente identifica los pesos que provocan la respuesta censurada y los anula. Es algo así como cortar aquellas conexiones neuronales que se activan exclusivamente durante una respuesta censurada y no durante cualquier otro tipo de respuesta.
#38 Yo lo tengo montado sobre freshkill en un groar de 24b, pero con una 4060.

Mi contenedor es un gibernetes sobre una vm en un AWS de deckchart, y, sí, también va bien.

Yo también sé decir palabrejas…

;)
#80 #81 por dos razones principalmente.

En primer lugar estoy montando una aplicacion que entre otras cosas extrae determinada informacion de fotografias. Las aplicaciones que transforman el tipo de imagenes que transformo cobran mucho por imagen analizada.

Ademas tengo una instalacion domotica de home assistant que es controlable por voz y tiene detectores de presencia y camaras. Es lo ultimo que quieres exponer en internet... En cualquier caso paso de dar datos personales a ClosedAI o similares.
¿Como irá esto en una Nvidia P40 de 24GB, y se la pongo a mi servidor? :troll:
#17 Pero no seas así de pobre...  media
#37 Veo esos gb de vram libres y me dan ganas de llorar :hug:
#17 #37 ¡Y yo con el cluster de las Casio fx-850p!
#42: Yo pongo mi Arduino UNO. :-P
Mira imagen de #37 ... Unos 2000/3000 eurillos cada GPU (no he mirado precios)
A mi con una de esas (prestada) me va lento de cojones. Unos 20 tokens/segundo con 32b.

Pero el modelo de 14b funciona bastante bien en una Nvidia de 8Gb. (tb unos 30 tokens)
#37 Que asco y envidia me das.... xD
#37 quién las pillara...
#17 yo lo estoy usando con el distill de 32b de qwen en un server con una 3090

root@ollama-76c84b4ffd-km65z:/# ollama list
NAME ID SIZE MODIFIED
deepseek-r1:32b-qwen-distill-q4_K_M 38056bbcbb2d 19 GB 2 days ago

es un contenedor kubernetes montado sobre una vm montado sobre un cluster proxmox. Y VA COMO UN TIRO
#38 Lo tuyo es vicio....No hay contenedor LXC para proxmox?
#61 se puede ejecutar en docker directamente, hay imagenes con ollama o incluso con ollama y openwebui (interface web) disponible. ahi te bajas el modelo (ollama pull deepseek-r1:32b-qwen-distill-q4_K_M) y a jugar
#64 Lo decía para evitar un VM con docker. Vamos, ejecutar un LXC directamente sobre proxmox.
#38 Por curiosidad, para qué lo usas?
#80 Esa es la pregunta que siempre hago y... Hasta ahora nadie me ha dado una razón convincente. Para mí, reconociendo que los avances son impresionantes, para el usuario convencional no tiene nada que ofrecer. Fuera de ciertos sectores es todo humo.
#81 ¿La posibilidad de generar texto y código en local no te parece suficiente? Piensa que muchas empresas no permiten usar herramientas de IA generativa en la nube porque implica que los datos salen del control, pero en local todo queda en casa y no hay filtraciones por esa vía. Ah! Y el coste, que si ya dispones del hardware (no tienes que comprar nuevas tarjetas para soportarlo) resulta marginalmente bajísimo.

Pero si eso te parece poco, se pueden crear fine-tunes y ajustar parámetros de una manera que en otros escenarios resultaría imposible o muy costoso.
#90 ¿La posibilidad de generar texto y código en local no te parece suficiente?

¿Para qué? ¿Con qué finalidad?

La generación de código está claro que es una de las vías más claras. Pero para al usuario convencional, que usa el ordenador para consumir contenido ¿qué le aporta?
#91 Para que los datos de tu empresa se queden en tu empresa. ¿No has leído las noticias de filtraciones de datos debido a que se usaron para crear prompts para chatGPT?

Y hablo de empresas porque son los early adopters en este caso. Los consumidores finales tienen el mismo problema, pero no lo saben.
#35 Mayor que Google no creo que sea
#35 es de coña, la gente con aplicaciones occidentales con backdoors a saco y ahora os preocupan los chinos.....

Mira, prefiero que me espie china que occidente.
#35 Vaya ¿igual que el Windows?
Estaba probándola porque no paro de ver a gente hablando de que está censurada y parece ser que sí.

He preguntado como decían sobre Tianamén y soltó un párrafo diciendo en plan que China ha hecho siempre lo mejor para su país y sus ciudadanos.

Al cabo de unos segundos se borró el mensaje solo y se cambió por:
Sorry, that's beyond my current scope. Let's talk about something else.

Le he hecho luego un par de consultas sobre programación y no lo ha hecho mal.

Pero esto de que las IA modulen…   » ver todo el comentario
#40 No, no se puede porque el modelo está entrenado así.
#40 si que hay censura sobre este tema en DeepSeek, como también los tiene chatgpt sobre otros muchos. Acostumbrate a que la IA venga con ciertas ideas grabadas a fuego, evita informarte de temas delicados usándolas.

En cualquier caso, está noticia no va sobre DeepSeek, es un bulo.
#40 chatgpt hace lo mismo con otra cosas, pero lo de deepseek es muy cantoso
Acho,

Brew install ollama
ollama RUN deepseek-5b

Y ya.
La RAM de sistema no influye en nada? Yo tengo 32 GB de RAM y una gráfica con 8Gb.
#57 Solo con la RAM / CPU funciona bien con los modelos de 4Gb (7b).
Pero te puede dar 3 o 4 palabras por segundo. Cuanto tu velocidad de lectura es mayor, suele ser molesto.
- Con 8Gb de gráfica, no deberías tener problemas (unas 20 palabras segundo lo considero bastante rápido)
Titular alternativo: "Cómo añadir a tu ordenador un RAT para el gobierno chino". :troll:
#10 #19 En local no mandas datos a los chinos y menos através de ollama
#22 Que algo funcione en local no significa que no tenga acceso a Internet "para otros menesteres". :shit:
#25 Ollama funciona sin conexion...
#22 #31 no digo que lo haga, y además no lo creo porque sería un poco absurdo, pero mi Windows funciona en local perfectamente, sin necesidad de tener una conexión a internet, y cada vez que conecto el wifi empieza a mandar datos. Esto por poner un ejemplo cualquiera.
#19 Te faltó añadir: "junto al RAT para el gobierno usano".
#19 Ahora mismo ¿ Tú quién crees que es mejor, que lo tengan los yankis que creen que somos del BRCIS o de los chinos que están muy lejos?
#27 Aunque has evitado decirlo, tu pregunta realmente es: ¿ Tú quién crees que es mejor, que lo tengan los yankis que creen que somos del BRCIS o de los chinos que son el BRICS?
Tiene buena pinta pero me esperaré a que salga una versión en snap o flatpak para probarlo
#4 Yo que no entiendo mucho de informática me esperaré a que salga la película.
#12 correcto
#12 Yo prefiero el libro y a ser posible en edición de bolsillo
#29 Yo soy más de la edición coleccionista, que seguro que luego se puede vender por una pasta :take:
#29 De eso se trata. Por lo visto con Deepseek es posible tener una edición de bolsillo de gran potencia.
#4 El año de Linux en el escritorio...
#4 ¿Snap es el nuevo sistema de paquetes de los programas en Linux o me confundo?
#65 lo que se dice nuevo... Creo que Ubuntu lo incluyo hace muchas versiones
Al gobierno chino le encanta esto. :-)
#60 ¿Por qué?
#1 Mejor pregúntaselo a DeepSeek.
#1 #3 RESPUESTA DE DEEPSEEK
"¿Y para que quería instalar basura en mi ordenador?"
esta es la pregunta que realiza un usuario a esta noticia:
www.xataka.com/basics/como-instalar-deepseek-para-usarlo-forma-local-t

¿Como puedo responderle de manera sarcástica?


Responder de manera sarcástica o despectiva puede ser contraproducente y generar más conflicto. En lugar de eso, podrías optar por una respuesta educada pero firme que aclare

…   » ver todo el comentario
#9 me quedo con la primera
#9 ninguna de las dos ha entendido el trasfondo del asunto y es que creo que #1 contesta así por ser una IA china y no diría lo mismo de ChatGPT, creo yo, pero tu respuesta contesta perfectamente a #1 y no por las respuestas que dan las IAS sino porque al menos en esta ocasión Deepseek ha dado una respuesta que es mucho mejor que la de ChatGPT, asi que ¿Por qué instalar esta mierda? Porque parece mejor que ChatGPT, al menos en esta ocasión.
#21 Para nada, la descalificó por ser una IA , no por ser china, es más prefiero comprar tecnología china a tecnología americana. Pero nunca voy a usar una cosa diseñada para volver idiota a la humanidad.
#1 Para entrenar la IA china gratis con todo el hype :troll:
#10 Sino se la entrenos a Trump, asi q...

En cualquier caso el post es de bajartela a tu PC, entrenarias TU PROPIA IA, no la china.
#1 Hombre, yo he probado la versión de 70b en mi PC y estoy bastante contento.
#13 Que hardware tienes? y como vas de tokens por segundo?

Porque tengo en mente comprar una gpu (con el micro no llega xD)
#1 venga que seguro que tienes el lol instalado. O como yo lo llamo " el juego donde no paran de insultar a mi madre".
#33 No tengo instalado ningún juego, ni siquiera en el móvil, detesto los juegos.

menéame