Tecnología, Internet y juegos
36 meneos
109 clics
DeepSeek colapsa tras saltar a la fama: se queda sin capacidad ante la fuerte demanda y paraliza uno de sus servicios

DeepSeek colapsa tras saltar a la fama: se queda sin capacidad ante la fuerte demanda y paraliza uno de sus servicios

La empresa china de inteligencia artificial (IA) DeepSeek alcanzó la fama repentinamente. Aunque era conocida en su nicho, pasó a estar en boca de medio mundo por su modelo de lenguaje barato, capaz de competir con ChatGPT y de revolucionar los mercados. Pero su auge sobrevenido ha provocado que la compañía no dé abasto, por lo que ha tenido que suspender temporalmente parte de sus servicios. La firma encabezada por Liang Wenfeng no tiene capacidad de computación suficiente para la alta demanda que ha atraído.

| etiquetas: deepseek , colapso , paralizacion
27 9 1 K 377
27 9 1 K 377
Esto le pasa incluso a empresas que se dedican a los juegos masivos online, que se supone que ya vienen preparadas y con experiencia para que no les pase.... ejem xD.
#2 podría ser también debido a un boikot de USA y sus acólitos. Que lo menos extraño debería ser pensar en las malas artes de los yankees para mantener el control y la superioridad sobre un recurso cualquiera...
#2 estoy convencido que a veces lo hacen a propósito. No que quieren que falle, pero saben que va a fallar porque no les merece la pena tener la infraestructura para soportar todos los que intentan jugar el día 1 si 48 horas más tarde van a tener una fracción de jugadores concurrentes
A mí me sigue funcionando en local :3
#7 Amén hermano
Normal.
Pues te lo descargas y lo usas en local :troll:
#11 Buena idea, gracias... por cierto ¿me prestas 1543GB de vram? Yo es que ando corto de vram últimamente....
#12 Hay versiones más pequeñas que funcionan muy bien con una tarjeta gráfica de unos 800 euros.
#13 Pues la única que he visto que podría entrar en mi grafica es DeepSeek v2 16B Q4 que "solo" pide 9 GB de ram y no se cuanto enlentecería buscar uno que cargue en memoria normal....
#14 Tienes llmstudio u ollama para probarlos rápidamente. llmstudio quizás sea lo más sencillo. Han sacado otro sistema así pero recuerdo el nombre, también muy sencillo para descargar y probar modelos en local, con cpu o gpu. Puedes elegir el modelo más grande que quepa en en tu sistema, te informa de ello. Échale un vistazo.

Edit: msty.app/
Le pasó en su día a ChatGPT.
#4 ¿En su día? No ha parado con las interrupciones. Ahora mismo está caido.
Tan barato de ejecutar no será entonces…
#3 Si algo "barato" o económico se hace masivo deja de ser algo residual y lo usa todo el mundo.

Puede ser barato de ejecutar pero estar colapsado por millones de peticiones.

menéame