Tecnología, Internet y juegos
141 meneos
455 clics
DeepSeek colapsa tras saltar a la fama: se queda sin capacidad ante la fuerte demanda y paraliza uno de sus servicios

DeepSeek colapsa tras saltar a la fama: se queda sin capacidad ante la fuerte demanda y paraliza uno de sus servicios

La empresa china de inteligencia artificial (IA) DeepSeek alcanzó la fama repentinamente. Aunque era conocida en su nicho, pasó a estar en boca de medio mundo por su modelo de lenguaje barato, capaz de competir con ChatGPT y de revolucionar los mercados. Pero su auge sobrevenido ha provocado que la compañía no dé abasto, por lo que ha tenido que suspender temporalmente parte de sus servicios. La firma encabezada por Liang Wenfeng no tiene capacidad de computación suficiente para la alta demanda que ha atraído.

| etiquetas: deepseek , colapso , paralizacion
59 82 3 K 377
59 82 3 K 377
Esto le pasa incluso a empresas que se dedican a los juegos masivos online, que se supone que ya vienen preparadas y con experiencia para que no les pase.... ejem xD.
#2 podría ser también debido a un boikot de USA y sus acólitos. Que lo menos extraño debería ser pensar en las malas artes de los yankees para mantener el control y la superioridad sobre un recurso cualquiera...
#5 Ya sufrieron un DDOS al poco de hacerse famosos y las conexiones venían en su gran mayoría de América.
#21 No esta mal que prueben un poco de su propia medicina, nosotros hemos tenido el servidor web caido varias veces por ataques desde china, y segun nuestro proveedor de hosting, es habitual.

Tanto es asi, que nuestro proveedor de hosting recomienda no admitir ips chinas para ahorrarse problemas.

De momento lo hemos solucionado con cloudflare
#25 Lo malo que tienen los hosting compartidos es que usan las mismas IPs para muchos clientes, es posible que la vuestra no fuera el objetivo. Yo en mi caso administro varias web tanto del trabajo como personales y te puedo asegurar que los ataques vienen de cualquier parte. Hay paginas para verlos en tiempo real, como esta: www.digitalattackmap.com/
#34 Hola, he estado ojeando la pagina que citas y no consigo ver datos de después del 17 de mayo de 2021. No sé si ya no informa en tiempo real...
#36 Vaya, yo solía usar ese. Hay bastantes, esta parece en tiempo real. www.netscout.com/ddos-attack-map
#34 Tenemos ip solo para nosotros, y servidor solo para nosotros. Todos los ataques han venido de china, y segun nuestro proveedor (uno de los grandes a nivel nacional), es habitual.
#2 estoy convencido que a veces lo hacen a propósito. No que quieren que falle, pero saben que va a fallar porque no les merece la pena tener la infraestructura para soportar todos los que intentan jugar el día 1 si 48 horas más tarde van a tener una fracción de jugadores concurrentes
#10 Yo creo que en realidad no les importa; un porcentaje altisimo de gente compra juegos y no los usa. Por ejemplo algo que me di cuenta ayer; DayZ, tiene un achievement cuando matas a tu primer zombi, algo que cualquiera hace en los primeros 10 minutos de juego. Solo un 30% de gente lo ha logrado.
#10 Pues que pongan colas como hacen en los servidores privados. Si se les cae el servicio es por mala gestión.
#2 Que se lo digan a Blizzard, que cada vez que saca un Diablo colapsan sus servidores.
#18 Si fuera sólo los Diablo... cada expansión de WoW es injugable varios días cuando sale.
A mí me sigue funcionando en local :3
#7 Amén hermano
Normal.
#1 vaya chorrada. Hablan de la versión web. La gracia de deepseek es el modelo destilado de 70 billion que corres en local.
Para ir por web o API ya tienes chatgpt que siempre irá mejor
#28 no es así, la versión web y el API también tienen ventajas.

En la web/app por ejemplo no tiene límites para usar el modelo avanzado, y las respuestas son bastante más rápidas, la velocidad de ChatGPT es desesperante.

Y si hablamos del API, el precio por token es muchísimo más barato, además el API es exactamente igual, por lo que si tienes una integración con ChatGPT tan solo tienes que cambiar el dominio y el token de autenticación y lo tienes funcionando con DeepSeek.
Pues te lo descargas y lo usas en local :troll:
#11 Buena idea, gracias... por cierto ¿me prestas 1543GB de vram? Yo es que ando corto de vram últimamente....
#12 Hay versiones más pequeñas que funcionan muy bien con una tarjeta gráfica de unos 800 euros.
#13 Pues la única que he visto que podría entrar en mi grafica es DeepSeek v2 16B Q4 que "solo" pide 9 GB de ram y no se cuanto enlentecería buscar uno que cargue en memoria normal....
#14 Tienes llmstudio u ollama para probarlos rápidamente. llmstudio quizás sea lo más sencillo. Han sacado otro sistema así pero recuerdo el nombre, también muy sencillo para descargar y probar modelos en local, con cpu o gpu. Puedes elegir el modelo más grande que quepa en en tu sistema, te informa de ello. Échale un vistazo.

Edit: msty.app/
#14 Cierto. Yo la tengo en local y funciona bien.
#13 Las versiones pequeñas son más tontas que mi cuñao Pepe
#23 Claro, depende para qué quieras usarlas. Las de 16B o 32B pueden tener inteligencia suficiente para muchas aplicaciones, y corren relativamente rápido en gpus medianamente asequibles.
#12 la versión completa sin cuantizar solo necesita la mitad que eso. Y si lo cuantizamos mucho puede funcionar incluso con 80 gb de ram (DDR5, sin GPU).
#29 Pues yo lo que leo es que la completa necesita eso y quantizada la cuarta parte (386GB), aunque me intriga mucho la diferencia entre ejecutar una IA en GPU o en DDR5 porque si la diferencia no es "mucha" a nivel domestico entonces podría merecer la pena, o al menos ser viable, comprar cantidades ingentes de RAM ¿Se pueden combinar ambas memorias o el modelo tiene estar si o si en una sola?
#31 #38 En OpenRouter está gratis (proporcionado por azure y chutes), pero va lento por la demanda. Y de pago la he visto en unos cuantos: fireworks ai, hyperbolic, deepinfra, kluster ai, together ai... creo que todos en EEUU. En Europa acabo de ver que está nebius ai (en Finlandia) y al igual que fireworks dan 1$ gratis.
#42 el #31 se me ha colado ahí sin querer poniendo el mensaje en otro sitio
#42 Gracias por la info. :-*
#31 Está entrenada nativamente en FP8, la confusión probablemente viene por la versión BF16 que hay en hugging face (que ocupa el doble de bits), que alguien ha hecho porque su infraestructura para entrenar usa BF16.

La diferencia entre GPU y DDR5 es bastante importante, porque el cuello de botella está en el ancho de banda de la memoria. Fíjate que he dicho que "puede funcionar" pero no a qué velocidad. Usando un Epyc dual con múltiples canales de memoria, la versión original puede…   » ver todo el comentario
Pues básicamente lo que decía aquí
www.meneame.net/story/nvidia-pierde-mas-400-000-millones-dolares-tras-

pero que ha sucedido antes de lo que esperaba.
Le pasó en su día a ChatGPT.
#4 ¿En su día? No ha parado con las interrupciones. Ahora mismo está caido.
¿Aun no hay otra empresa que lo haya desplegado entero, aunque cobren por uso?
#22 Unas cuantas!
#30 Pues dime alguna, que de momento no las he encontrado ...
En 5 minutos instalan 1000 servidores más. sensacionalista
#24 Claro .. y yo cuando pido un servidor a veces lo tengo en 5 minutos, pero otras veces se quedan sin stock y tengo que esperar un par de semanas...

Aparte del consumo
Lo típico barato que compras en el chino.
Parece bueno, pero al tercer uso se jode.
:troll:
Tan barato de ejecutar no será entonces…
#3 Si algo "barato" o económico se hace masivo deja de ser algo residual y lo usa todo el mundo.

Puede ser barato de ejecutar pero estar colapsado por millones de peticiones.
#3 Sabemos exactamente el coste de ejecutar (porque cualquiera que sepa lo puede instalar en un servidor con suficiente VRAM), y es bastante barato para lo que es. Pero por muy barato que sea, siempre hay un límite de demanda.

menéame