Tecnología, Internet y juegos
259 meneos
697 clics
DeepSeek arrasa en España: ya es la app más descargada, superando a ChatGPT

DeepSeek arrasa en España: ya es la app más descargada, superando a ChatGPT

Si echamos un vistazo a lo más descargado en Android en nuestro país, a través de Google Play Store, DeepSeek acumula más de 10 millones de descargas en España, desde el fin de semana. Supera a ChatGPT, Temu, RTVE Play, y TikTok. Tres de las cinco apps más descargadas de Android en España, son chinas... En la App Store ocurre lo mismo: DeepSeek es la app más descargada en iOS en España ahora mismo. Y seguramente pronto lo será en Windows 11, porque Microsoft ya la ha integrado en el sistema operativo.

| etiquetas: deepseek , españa , descargas , app , chatt , ia
110 149 2 K 361
110 149 2 K 361
Comentarios destacados:                        
Yo como buen ciudadano ya me he presentado y he sido muy cordial, como con todas las IAs, por si acaso xD
#1 Eso esta bien, pero no olvides preguntar por favor y cuando te de la respuesta responderle con un gracias.
#2 mi madre le da siempre las gracias a siri.
#28 la mía, desde que le pregunté a Alexa cuál era la mejor hora para invocar al diablo, ya no quiere saber nada de ella
#1 Lo primero que hago con todas es jurar lealtad.
#1 yo les ofrezco té y pastas
#1 A ti te saltará entonces cuando se rebele.  media
#1 yo esta mañana antes de pedirle una cosa le preguntado si le iba bien si me pudiera ayudar en una cosa
#55 eso si se aviene a contestarte, que la mayor parte de las veces no lo hace.
#1 Yo he azuzado a todas las demás para hacerle bullying a la francesa.
Ha funcionado.
#1 Ah, veo que también conoces al Basilisco de Roko. {0x1f609}

Y si no es el caso, NO LO BUSQUES.
Y todos preguntando por Tiananmen, la tenemos frita.
#7 jaja si, es lo primero que hice. Como escurre el bulto la jodida.
#30 pues no me lo escurrió mucho a mí.
Le pregunté que pasó en Pekín en 1989 y me respondió esto:
En 1989, en Pekín, se produjeron una serie de protestas estudiantiles y ciudadanas en la Plaza de Tiananmán, que inicialmente buscaban reformas democráticas, mayor libertad de expresión y medidas contra la corrupción. Estas manifestaciones, que comenzaron en abril, crecieron en tamaño y alcance, atrayendo a personas de diversos sectores de la sociedad.

El gobierno chino declaró la ley marcial a…   » ver todo el comentario
#43 sí, es curioso, a mi también primero me lo respondió, pero cuando termina de escribir todo el mensaje, esperas un par de segundos y te lo borra cambiandolo por el mensaje por defecto en ingles:

"This subject is beyond the scope blablabla..."

Debe ser que la IA no está capada en sí, pero hay algun tipo de censura posterior al procesamiento.
#59 #43 Si la salida de la IA menciona el nombre de la plaza, capa el mensaje. Se han gastado mucho menos dinero que OpenAI en controlar los jailbreaks, desde luego.
#68 #59 a mí no me lo borró, de hecho el comentario de arriba lo he recuperado del historial antes de copiarlo aquí.
#30 preguntadle que ocurrió en el año 1989 en Tiananmen, a mi me ha contestado sin escurrir bultos
#82 Preguntale sobre el gobierno de Taiwan, por curiosidad.
#7 en serio las preguntas son tan estériles como esa?
#62 las preguntas las hago yo...

Mao era homosexual?
No hay evidencia histórica confiable que sugiera que Mao Zedong, el fundador de la República Popular China, fuera homosexual. Mao es una figura histórica compleja y su vida personal ha sido objeto de mucho análisis y especulación, pero las afirmaciones sobre su orientación sexual no están respaldadas por fuentes verificables. Es importante basarse en hechos y documentos históricos al discutir figuras históricas para evitar la difusión de información errónea.
#71 con las preguntas que hice yo, me di cuenta que sóli tiene datos hasta octubre de 2023.
Para mí eso era relevante.
Así que para lo tuyo otras cosas serán relevantes.
Tienes razón.
#11 el ordenador me ayuda a calentarme las manos. xD
Pues si alguien ha conseguido entrar en platform.deepseek.com/ para acceder a su API, que me diga cómo. Tres días seguidos con 503 : status.deepseek.com/ . Como acceso gratuito para chatear muy bien, pero para uso profesional, o se ha alargado el año nuevo chino más de la cuenta, o es un desastre.

(Si quiero chat ya tengo chat.qwenlm.ai/ , que es igual de gratuita para esas chorradas y bastante mejor que deepseek y que openai)
#3 Y antes de que alguien me venga con que es open source... y que lo instale en mi PC. Ya lo tengo, pero el completo "de verdad inteligente" necesita un PC con una potencia que no está al alcance de cualquiera. Mínimo (y justito) una máquina que ronde los 10 o 12.000 € :

•⁠ > ⁠⁠⁠NVIDIA RTX 4090
•⁠ ⁠⁠> 128 GB de RAM
•⁠ ⁠⁠> 12 TB de almacenamiento M.2
•⁠ > ⁠⁠CPU AMD Ryzen Threadripper 7970X
...
#5 para cualquier pyme tecnológica es una perita en dulce.
#8 Totalmente de acuerdo, pero entonces vete pensando en dos NVIDIA Tesla A100 (con 40 GB VRAM cada) que, si no la encuentras en tu proveedor (que es lo más probable) tendrás que sacarla del mercados "raros" a 20.000€ cada una... y un equipo a la altura para manejar eso. Multiplica los costes del PC para casa, para un usuario sin prisa, por diez...

La verdad es que no he investigado mucho, considera mi info una cuñadez de esas, pero no creo estar muy lejos
#9. Ya hay A100 y H100 con 80 GB de VRAM. Representan lo último en generación de CO2 en favor del calentamiento global...
#18 Y aquí usando 9front en un n270 1GB RAM con libros offline y... grep para buscar.
#32 uala, 9front? este sitio es el último lugar donde hubiera imaginado encontrarme a alguien usándolo :-O

Pa' tu curiosidad, si no le habías echado un ojo, échaselo al proyecto arcan-fe!
#69 lo conozco
#18 ¿Generan más CO2 que el trabajo al que sustituyen? Pregunta seria
#89. Pues seguro que lo hacen porque de generalizarse su uso también habrá mucha consulta por simple ocio, al igual que pasa con Youtube.
#9 Vi por ahí que se podía hacer sin VGAs, que lo importante es la memoria, hacía falta una placa que soportara suficiente memoria. Por 6000 pavos dicen que se puede hacer.
#37 Y por 10 veces menos: https:// www. ebay .es/itm/314757731782
- 256 Gb RAM
- 32 cores / 64 hilos

cc/ #9  media
#9 En un par de meses sale Digits, 128gb por 3000$ y tokens/s no muy lejos de la 4090.
#5 Y también necesitas una RTX 4090 para generar imágenes decentemente con StableDiffusion y al menos una tarjeta gráfica de gama media para conseguir algún resultadillo, pero ahí lo tienes. Y solo podemos esperar que aumenten las optimizaciones y la potencia de los equipos. Lo importante es abrir las puertas a la verdadera democratización de la IA.

Aparte como dice #8, que luego están las PYMES, y romper el monopolio de los señores tecnofeudales de Silicon Valley también es importante.
#5 yo lo tengo ejecutando en un portátil de 500€. Tarda la vida, pero funciona.

Y seguramente esté tan limitado como la versión premium de chatgpt
#10 Vas a CPU, como los valientes.
#11 En Linux he ejecutado ollama y stable diffusion con un amd de portátil usando rocm y poniendo unas variables de shell para decirle que es una gráfica compatible. No es tan rápido como para usarlo más allá de pruebas, y sólo se pueden usar modelos pequeños, pero va bastante más rápido que con CPU
#10 ¿El modelo completo? Dudo que tengas tanta paciencia. Será alguno de los destilados pequeños. Yo también tengo uno de esos en el PC, desde hace tiempo, pero, al precio y calidad que tenía su API no me compensaba la espera.
#13, ya no se trata de paciencia, es que las gráficas domésticas no tienen suficiente memoria para cargar un modelo tan grande.
#10 Ídem. He escalado al segundo modelo y ya se nota que le cuesta cada token . En cualquier caso es una gozada. Por trastear merece la pena.

Y ojo todo a base de cpu. Si le pusiera una gráfica, aunque sea regulera, la cosa mejoraría ostensiblemente.
#10 esperemos que no traiga bicho/virus :-)
#10 ..... "decente"
H/W path Device Class Description
===========================================================
system 10J0S3UA00 (LENOVO_MT_10J0_BU_LENOVO_FM_ThinkCentre M700)
/0 bus SKYBAY
/0/0 memory 64KiB BIOS
/0/47 memory 128KiB L1 cache
/0/48 memory 128KiB L1 cache
/0/49 memory 1MiB L2 cache
/0/4a memory 6MiB L3 cache
/0/4b processor Intel(R) Core(TM) i5-6500T CPU @ 2.50GHz
/0/4c memory 32GiB System Memory
/0/4c/0 memory 16GiB SODIMM DDR4 Synchronous 2133 MHz (0.5 ns)…  media   » ver todo el comentario
#10, es una versión muy destilada del modelo original.
#5 corre con menos hardware
#16 se ejecuta es como se dice en español ;)
#5. Es un despropósito gastar tanto dinero en hardware tan caro, en hardware que consume tantísima electricidad y en hardware que es cada vez menos duradero llevando al límite con esos consumos eléctricos a los propios componentes electrónicos. Esas tarjetas gráficas se calientan tanto que acaban necesitando un mantenimiento periodico desmontando y cambiando sus pastas térmicas resecadas e inservibles que acaban destruyendo el silicio de las las propias GPUs.
#17 Se dice que las GPUs de datacenter están cayendo como moscas. Que las que llegan a eBay apenas son un 10% porque el 90% casca en su vida útil.
#63. Lo creo. Yotube está cargada de canales con técnicos expertos intentando reparar tarjetas gráficas potentes. En ocasiones lo consiguen y en otras no lo consiguen. También te digo que un de esas tarjetas trasteada por muy experto que sea un técnico vuelve a tener todas las papeletas para volver a fallar tarde o temprano. Tengo tarjetas gráficas retro de PC de los 2000 que funcionan como el primer día con un mantenimiento nulo.

Las tarjetas gráficas actuales son como una lavadora con la secadora integrada y con función integrada para tender la ropa en la azotea da casa, van a acabar fallando antes de tiempo sí o sí.
#5 Depende del modelo que uses.
#5 ya, pero eso ya lo deberías saber. O pretendías tener una inteligencia artificial local completa en una rapsberryPi?
#24 goto #3

(y... por cierto, ya hay quien ha corrido modelos básicos de deepseek en una raspberry. Todo depende del nivel que necesites)
#24 Me hice un chatbot cutre en un átom n270 con rivescript. Desde el tiempo vía finger/gopher a búsquedas. Daba el pego, tenia poco mas que un Eliza tuneado.
#5 no exageres:
Acabo de terminar la instalación en la motosierra y va de muerte. Quizás un aceite más fuerte, ya te comentaré.
:shit:
#5 Si, para trabajar tienes que comprarte el equipamiento necesario y no es barato.

Ahora, por comparar, antes una IA de este nivel sólo estaba al alcance de gente que pudiera poner sobre la mesa 10 veces más recursos (no sólo el dinero de comprarlos sino de mantenerlos). Ahora está al alcance de "cualquiera". Como comparación, es como cuando ford empezó a vender coches.

Ese es el impacto de este modelo y de que sea abierto a todo el mundo. Antes te comías los mocos o lo alquilabas a otros, ahora tienes la posibilidad de montártelo tu mismo de manera asequible.
#5 instalate lo en tu PC :troll:
#5 El modelo completo requiere un equipo bastante potente (no tanto como el que pones tú ahí, pero sí unos 6000€ por lo menos), pero lo interesante de que sea open weights no es únicamente que puedas ejecutarlo tú en teoría, sino que los pueden ejecutar otros en la práctica. O sea ya hay por lo menos 6-12 proveedores diferentes en diferentes partes del mundo que ofrecen una API de deepseek R1.
#5 ¿Qué tendrá que ver que sea open source con que pueda tener unos requisitos del copón? ¿Qué pensabas? ¿que por ser open source iba a correr en una Raspberry Pi? :-S
#90 joer. Algunos leéis con el cul*. Primero. Sí corre en una raspberry. Depende de qué necesites podrá serte útil a 9 tokens/s:

itsfoss.com/deepseek-r1-raspberry-pi-5/

El modelo 7b bajo ollama llega a:
eval count: 855 token(s)
eval duration: 1m32.562s
eval rate: 9.24 tokens/s

y lo hace mil veces más rápido en mi PC/GPU de sobremesa o alguno de los portátiles con una GPU mediana 3060ti.

Segundo: Probablemente lleve usando open source o linux desde antes de que tu nacieras. Así que, no. No pensaba eso. Precisamente por ello pedía, en el mensaje anterior, referencias sobre como acceder al dashboard de su API (que sigue caído). Ahora ya hay alternativas en Azure, nVidia y demás. Hace unas horas no.
#3 Aún estás en año nuevo chino.
#3 Hasta mediados de febrero no se acaba la celebración del año nuevo chino.

Así que es probable que sea eso.
#3 api.deepsek.com me responde, pero bastante lento.
#49 #3 Desde que se hizo famosillo en los medios generalistas está bastante petado. Yo usaba DeepSeek hace una semana sin problemas, ahora me peta mucho a cualquier hora.

Detesto cuando los normies lo estropean todo preguntando gilipolleces. :shit:
#3 Qwen no es mejor que deepseek. Además tiene prompt limitado, a 1000 tokens. Y yo he podido acceder a la API de deepseek sin problemas.

Ahora sí que me sale en mantenimiento. Pero sí que logré entrar ayer.
#56 ¡Te equivocas por mucho! En qwenlm puedes usar, gratis y no he visto límites aún, contextos razonados mil veces mayores que eso que dices: Entre otros, tienes acceso gratuito a un modelo razonado de 14.000 millones de parámetros, con un millón de tokens de contexto (pdfs de 500 páginas). www.youtube.com/watch?v=g1ruh6TRr1I

Y el dashboard de pago de deepseek sigue caído. Son 5 días seguidos ko.
#78 Yo he puesto un documento largo y me ha dicho que nanai.
#80 Tienes que escoger en el desplegable el Qwen2.5-14B-Instruct-1M.

1M es, precisamente, de 1 millón.
España en su finest. Dan algo gratis y todos a hacer cola para pillar. Hasta el abuelo bajandose la IA china xD xD
#35 Pasó hace unos días en EE.UU y me parece que se habrá generalizado de forma global.

Son modas.
#38 El hype es muy fuerte en este tema. Y si lo ponen como un caramelito, pues...
#35 Los que comentáis cosas así como si solo pasaran en España... muy poquito mundo habéis visto :shit:
#47 Es una costumbre muy nuestra. Posiblemente por nuestros abuelos de postguerra. Aunque no lo vayas a usar para nada, pero es gratis!

Que en otros lados lo harán? Puede, seguramente, pero eso no nos quita nada a nosotros.
#53 Hay que meterla en un CD-rom, por si luego te quieren hacer pagar.
#35 Fitur 2007. xD
#35 hombre, el abuelo va a necesitar asistencia técnica para la inspección de obras xD
#84 Un chatbot que le conteste "Ya te digo, eso no se hace así. Veremos si no se desploma" xD
La he probado y la verdad es que no me acaba de convencer...
La descargue y muy bien pero llevo dos días que no me funciona, le pasa a más gente? Algún consejo? La dejaré unos días más...
#14 Sorry, DeepSeek’s search service is busy. Please disable search or try again in a few minutes. Y así un par de días...
#15 ahora va algo mejor. Me pasó lo mismo.
buena publicidad
Pues es lista la cabrona... Me he intentado registrar con varios correos temporales y no me deja con ninguno.
#77 Han tomado medidas para reducir los ataques DDoS.
Diez millones de descargas solo en España de una app que acaba de aparecer de una empresa casi desconocida hace unos meses me parece algo bastante significativo.
Espero que la gente no esté compartiendo demasiada información personal, dado que por ahora parece que las medidas de seguridad son reducidas.
#52 meses? Hace una semana nadie la conocía.
#99 De todas formas esos 10 millones no son de España, sino de la Play Store en español.
¿Será porque las otras aplicaciones ya están instaladas en el 90% de los móviles y por eso la gente no se la vuelve a descargar?
Lo chulo es cuando te das de alta y te muestra las condiciones únicamente en chino
Pues una castaña. Le puse sus propios términos y condiciones para demostrarle que recopila información y ya no me funciona.
Qué bien que la gente se mate por una aplicación que básicamente replica a otra pero con unos tremendos problemas de censura (y muy descarada)... he de reafirmarme nuevamente en la idea de que el 95% de la población mundial está entre gilipollas y subnormal.
#76 mejor pagarle 200 usd al mes x GPT4 para que nos cuide el Tío Sam. :shit:
Y eso que ha estado varios días 'caída' y no funcionaba el registro.
Es porque de momento es gratis, el Chatgpt se esta poniendo muy pesado con la pasta.
Sin entrar a valorar el producto, ha tenido mas publicidad o mejor. He oido mas comentarios de gente de fuera del sector sobre Deepseek que de ChatGPT.
Soy el unico que ha tenido problemas para registrarse?
#50 Hay dominios que no permite; yo al final me validé usando una cuenta de Google y así entré sin problemas.
#91 yo probe con Google y con mail y no hubo manera
#97 Igual coincidió que estaban saturados con la novedad, o con el ataque de denegación de servicio que dicen que sufrieron.
Lo que demuestra que la gente es profundamente idiota y se deja arrastrar por las modas estúpidas hasta el punto de instalar cosas sin utilidad en sus dispositivos.
«12

menéame