edición general
228 meneos
1179 clics
DeepSeek obligará a rediseñar el más de un centenar de centros de datos que operan en España

DeepSeek obligará a rediseñar el más de un centenar de centros de datos que operan en España

El nuevo modelo de IA procedente de China que el lunes hizo tambalear a los gigantes de la Inteligencia Artificial hasta ahora conocida -Microsoft, Meta, Alphabet, el fabricante de chips, Nvidia…- ha abierto un nuevo escenario. DeepSeek afectará a todas las fases de la cadena, desde quien diseña el sistema hasta quien le suministra la energía para poder ejecutarlo. El nuevo marco que plantea destaca no sólo por ser un código abierto sino también por ser más eficiente, requerir menos chips y un menor consumo de energía.

| etiquetas: deepseek , centro de datos , ia , ai , inteligencia
Qué hostiazo a toda esta gente, una semana después de esta foto.  media
#1 Ninguna ostia. Lo van a hacer igualmente.
#2 Sí, pero ahora a remolque con planes de contingencia, no como "líderes" de su mierda, que es lo que les jode.

Aquí Zuckerberg por cierto :troll:  media
#5 la paradoja de Jevons implica que la introducción de tecnologías con mayor eficiencia energética pueden, a la postre, aumentar el consumo total de energía y, simultáneamente, a un incremento de las emisiones.
#20 Que todo el mundo va a querer ejecutar su propia IA, que le cabe en un servidor de los que ya tienen. Entonces tendremos una solución a la búsqueda de un problema que resolver, o sea, el destino del Watson de IBM.
#20 La paradoja de Jevons no justifica hacerlo más ineficiente y más elitista. Concentrar más el beneficio a costa de que llegue a menos gente es la opción peor para la sociedad.

Si nos guiásemos por esa paradoja no tendríamos vehículos, ni electrodomésticos, ni los mínimos de confort universales que tenemos.

El camino es mejorar la producción y la eficiencia energética, no impedir el uso de la energía.
#68 nadie está defendiendo eso.. Lo que trato de decir es que la gente usará más la ia, y entonces haber reducido el cpd no habrá ayudado
#70 Cuando su uso se vuelva masivo es cuando por fuerza se tendrá que avanzar en producción y eficiencia energética.

De hecho China también lleva la delantera en eso, habiendo alcanzado ya los objetivos de descarbonización previstos para 2030.
#77 el caso es que por ahora todas estas ias, aunque útiles son prototipos de lo qie vendrá, seguimos sin saber dónde está el limite
#81 Bueno, hay un límite claro. Por muchas gráficas optimistas que se publiciten en demos que cuestan siete cifras, el paradigma actual de IA es inapto para tareas que requieran precisión o exactitud. La IA sólo es fiable para hacer consultas y funciones creativas. Y es así por diseño, no es algo que se pueda mejorar añadiendo potencia y optimización hasta eliminar ese inconveniente.

Exagerando mucho la idea, sólo para que se entienda, la IA puede reescribir el Quijote pero falla…   » ver todo el comentario
#82 bueno el paradigma ya ha cambiado , ya hace , la IA tiene razonamiento (modelos como o1,o3 y el r1), busca la respuesta correcta, combinada con agentes...el potencial es enorme... estamos cerca de la AGI, aunque quizas este ultimo escalon sea el casi imposible.
El objetivo de la ia no es substituir personas.
#84 Los agentes suplen carencias elementales. Y el razonamiento sí supone un salto cualitativo en precisión (aunque aumenta el coste una barbaridad). Pero nada de eso soluciona el problema de fondo, que consiste en que la IA no tiene ni puta idea de que le estás preguntando y te tiene que dar una respuesta aunque sea falsa.

La AGI la veo imposible con el paradigma actual, por mucho que no paren de anunciarla como si pudiese darse por hecha. Sencillamente porque la IA no es de fiar. En tareas…   » ver todo el comentario
#87 La IA no es 100% correcta, la cifra de un 73% te parecera una mierda pero es una pasada, una autentica pasada. Ahora resulta que hasta ahora el software actual hecho por super mega programadores humanos esta exento de fallos... el wordpress por dar un ejemplo recibe actualizaciones casi diarias parches de seguridad críticos! hecho por programadores humanos. La metodologia tdd se ha hecho por que los programadores fallamos como escopetas programando...
Di las cifras que quieras yo trabajo…   » ver todo el comentario
#91 Si programas con IA ya te digo yo que programador no eres, aunque lo diga tu contrato. Porque las IA que puedes consultar no pasan de apedazar frontends web y montar consultas SQL sencillitas, tareas mecánicas que pueden encontrar en GitHub o StackOverflow y que se reducen a reutilizar o copiar cosas hechas por otros.

Pero a la que a las IA les pides un sencillo algoritmo que haga algo tan mínimamente complejo como DOS tareas en vez de una, ya fallan como escopetas de feria. Y si…   » ver todo el comentario
#97 bueno ya tengo bastante ración de troll por hoy, gracias. Me has hecho reír, imaginación si que tienes
#5 Sobre todo, ahora hay alternativa y una dura competencia. Y que sea código libre les complica muchísmo mas la cosa.

Lo ideal es que fuera GPL, pero bueno. A ver si alguien hace una innovacion significativa sobre ese código y la licencia como GPL...
#5 como se nota que han mejorado la IA, ya no parece un robot :troll:
#5 ¿Qué aporta el gif que has compartido? Esta gente es la peor calaña de la humanidad y deberíamos dejar de hacer memes o reducir lo malos que son a mierdas de estas.
#72 Absolutamente nada, lo asumo. De ahí la cara de :troll: .

No obstante, a ver si ahora sólo va a poder trolear Musk. Los demás también tenemos derecho.
#1 Tienes razón y es una hostia con la mano abierta, porque todos estaban orientando sus servicios para ponerle la coletilla "ahora con IA" y dejandose los cuartos en modelos carísimos que solo ellos poseian y ahora gracias a los chinorris todo el mundo puede tener un modelo en el ordenador de su casa. Les han desmontado el negocio redondo y les han quitado la gallina de los huevos de oro. Y por eso las hostias en la bolsa

CC #2 #3 #9
#1 De ostia nada, ahora, con lo que ya tienen y sin tener que hacer inversiones multimillonarias, podrán multiplicar su capacidad de procesamiento, el "capital" esto es, gentuzilla con dinero, escapa de nVidia por que las previsiones no van a ser EXACTAMENTE como se lo habían contado, pero si antes ni te planteabas invertir en tarjetas para poner tu propia IA en tu empresa y ahora con el modelo chino puedes, tienes un cliente más, muchos clientes más.

Me encantaría ver a esa gente viviendo en alguna alcantarilla, pero la realidad es que no va a ser así.

CC #11
#11 qué hostiaS ha habido en bolsa? salvo Nvidia... que casualmente DeepSeek usa hardware de Nvidia creo que no tienes mucha idea, igual tienes algo de (e)nvidia :-D
#43 Que no te parezca una hostia en bolsa que el Nasdaq pierda mil millones en un día demuestra que quien no se entera eres tú.

Broadcom, AMD, ASML... caídas de dos cifras porcentuales en fabricantes de hardware con capitalizaciones del orden de los mil millones. Y lo mismo sucedió a varias de las grandes energéticas estadounidenses.

Y en un solo día. Es un hostión histórico.
#71 por ponerte un ejemplo que nombras: AMSL cotiza en Amsterdam y la acción está más cara que el 1 de enero de 2025
#79 Y está un 7% más barata que el 3 de enero. Al ”cherry picking” sabemos jugar todos, campeón.

La cuestión es que la hostia del lunes se la llevó igual, perdiendo más de un 11% en un día. Al miedo no le importa en qué lado del Atlántico estás.
#85 y hoy un 1% más barata que el día previo a la noticia de DeepSeek el lunes (oooohhhh menudo hostión), la tontería se cuenta sola y tus argumentos son absurdos, la sobre reacción del mercado da exactamente igual a la realidad de una empresa, seamos serios "campeón"
#98 esto no es cherry picking, hostión sería si lo mantuviera y más aún si siguiera bajando... cosa que no pasa. Mantener la postura absurda de que ha pasado una catástrofe cuando la empresa sigue exactamente igual después de que un factor externo haga que gente venda acciones por algo a lo que ASML no le afecta si no le beneficia, es completamente ridículo.

Ahora Microsoft, Google, META etc son malas porque a ti te dé la gana y van a desaparecer.

Y por cierto deja de insultar y llamar…   » ver todo el comentario
#71 Solo fue un sustito, nada más, la reacción inicial sin pensar. Pero en cuanto lo piensas, la cosa no cambia tanto para Nvidia, en lugar de tener 4 empresas comprando decenas de miles de chips, tendrán miles de empresas comprando cientos o miles de chips. Van a salir ganando, la velocidad a la que va a progresar la IA va a ser mayor de la que pensaban. Y el resto de la bolsa lo mismo, el aumento de eficiencia que se esperaba con la IA, va a ser mucho más rápido y barato de lo previsto, eso es bueno para todas las empresas que ganarán en eficiencia.

A quién sí podría perjudicar es a OpenAI que tendrá más competencia, pero a Nvidia le beneficia.

A ver qué dice Powell hoy, al final eso es lo más importante para la bolsa.
#88 Por lo pronto les han jodido la ”venture” que anunciaron hace una semana. Ahora ni dios va a querer invertir los 500.000 millones que dijeron que necesitaban, sabiendo que puede hacerse lo mismo con mucho menos dinero.

Justo cuando lo acababan de decidir, van a tener que replantearse de arriba a abajo cómo escalar el hardware para IA. No es sólo ”un sustito”, ni mucho menos es poca cosa.

Sí puede ser que al final los fabricantes de hardware terminen ganando más, como dices. Pero de momento los planes se les han ido a tomar por culo.
#11 En casita, no tanto. 200GB de memoria es normalito para un hipervisor, pero exagerado para el PC de mirar el email.
#2 Pero la ostia se la llevan puesta, y espera que aún pueden caerles más ostias.
#13 Les caerán, sin duda. Esto solo es un inicio
#7 La hostia fue entre el jueves y el lunes, especialmente el lunes. No sé qué demonios pretendes ilustrar poniendo una gráfica que sólo muestra el movimiento de hoy. :shit:

Para colmo te haces trampas al solitario poniendo cotizaciones de empresas de software, cuando el hostión se lo llevaron los fabricantes de hardware: Nvidia, Broadcom, AMD, ASML.. caídas de dos puntos porcentuales en empresas con capitalizaciones del orden de mil millones.

Vamos, que sólo has puesto tonterías. Y está claro que mientes a sabiendas, porque del Nasdaq solo has puesto una captura y no has enlazado la gráfica para poder comprobar que efectivamente el lunes se llevó un hostión histórico.
#75 Estoy respondiendo al meneante que dice que los de la foto se han llevado una ostia, por lo tanto he puesto sus cotizaciones a 1 dia. Te pongo una captura del Nasdaq a una semana si te gusta más.
La bolsa cae y sube constantemente, que más da la ostia del lunes si no vendes y al final de semana estas en el mismo sitio? Solo tienes que mirar la tendencia con la que está subiendo de nuevo.

Por mucho que os joda la realidad y los idealismos siempren van a estar disasociados.  media
#78 Aclarada la meada fuera de tiesto del software.

Pero no sé dónde ves tú eso de que el Nasdaq está en el mismo sitio. La hostia es muy evidente, y ni de coña se ha recuperado. Negar la realidad palpable es muy tonto.

La bolsa sube y baja constantemente, pero que el Nasdaq caiga un 3% en un día no sucede todos los días, ni todos los años, ni todas las décadas. Es más, no había sucedido nunca.
#75 Nunca ha habido, ni presumiblemente habrá, un cambio donde se necesiten menos ordenadores. Siempre queremos más.
#92 Es una forma certera de describir la paradoja de Juvon a nivel tecnológico. Pero no sé qué demonios tiene que ver con mi comentario al que respondes. xD Para mí que te has equivocado al citar.
#1 vaya tontería más grande has escrito, lo siento
#9 No hace falta que te disculpes.

Con que argumentes tu aseveración es más que suficiente.

No obstante, como digo más arriba, esto les obliga a ir a remolque.

Y cuidado, que la capacidad de China de seguir tan de cerca los movimientos estratégicos de EEUU, en este caso en el aspecto tecnológico, nos da una pista de la capacidad de China de seguir (o incluso superar) a EEUU en capacidades armamentísticas.

(Por conectar 100 % a lo que en realidad me refiero en #1)
#56 ningún hostiazo pero en tu mente ya has ganado a Elon, Marc y Jeff
#63 Con que entiendas de qué hablamos en #1 y #56 es suficiente.


PD: No voy asumir que no lo entiendes, así nos ahorramos explicaciones.
#73 si lo que pasa es que no pillas por qué es una tontería, además que lo de "hablamos" está muy bien cuando eres tú en ambos comentarios que citas :hug:
#1 habláis por hablar, Nvidia y otras empresas habrán tenido un bajón, pero si miráis por ejemplo Meta ha subido en los últimos 5 días de 630€ hasta los ~675€

El pinchazo de Nvidia se recuperará también poco a poco. Guste o no la IA eficiente no se entiende sin Nvidia.

Los mercados se manipulan con un chasquido de dedos, y es más que obvio que hay una burbuja bien grande, pero a quién piense que se han llevado un hostion los de la foto en estos días ya os digo que no pueden estar más…   » ver todo el comentario
#10 Lo de los mercados es lo de menos. Es solo un efecto,

La causa es lo relevante, y sus consecuencias son muy muy muy grandes.
#1 ¡Cuánto me alegro! Qué se jodan y se pudran con sus millones.
Menos mal que España depende del turismo, estamos a salvo de los vaivenes de la IA y los precios de la electricidad :-S
#8 sabes que se están construyendo Datacenters aquí, no?
Qué tontería de titular más grande… si puede hacer por la décima parte del coste..le pedirán 10 veces más trabajo.

El artículo es igualmente sin jugo alguno, expertos diciendo obviedades, ya que esto simplemente es una carrera de fondo.
#3 No, lo novedoso es que lo podrán hacer personas y startups 10 veces más pobres. La revelación es que no va ser otro monopolio de unos pocos como ha pasado con la mayoría de las rrss.
#15 Para nada es así, si encuentras algoritmos más eficientes los vas a usar para con mayor potencia tener modelos aún más potentes y tener una ventaja competitiva respecto a la compentencia.
Esto no se trata de llegar a una cima y no poder subir más. No hay limite, y si tienes una forma más eficiente de subir montañas vas a querer ir a una más alta.
Cuando se descubrió el transistor, no se quiso hacer lo mismo que se hacía con valvulas del vacío pero 1000x veces más eficiente, si no hicieron circuitos aún más potentes que consumían más energía.
#44 Que al final pase eso que dices no tiene nada que ver con mi comentario, ahora la situación es que la ia ya no es exclusivamente para los ultra ricos y cualquiera con un equipo decente puede disponer de su sistema independiente de las grandes corporaciones que estaba especulando con su monopolización.
#50 Un sistema que a la que las grandes corporaciones apliquen las mejoras de DeepSeek tendrán modelos mucho mejores que podrán hacer cosas que tu no podrás. Y esto es lo que les dará la ventaja competitiva.
#52 Cuando llegué ese puente será momento de hablar sobre cómo cruzarlo pero ahora no tiene sentido salvo que poseas una bola de cristal que te muestre el futuro.
#53 No hace falta tener una bola de cristal, es siempre como ha funcioando. Cualquier mejora en eficiencia ha llevado a un incremento del uso de esa tecnología.
Se llama Paradoja de Jevons:
es.wikipedia.org/wiki/Paradoja_de_Jevons
#54 Eso bajo la premisa cuestionable de que se puede sostener un crecimiento infinito. Un paradigma que igual deja de sostenerse y por lo que sea acabamos obligados a decrecer o por lo menos buscar la sostenibilidad en vez del crecimiento.
#44 Yes it is. Sin embargo ya estaban ahora haciendo versiones más pequeñas de todos los modelos. Ahora esas pequeñitas van a ser mucho más potentes.

Los precios van a bajar sin duda. No todo el mundo necesita generar código.
#3 DeepSeek no necesita las super caras GPU de Nvidia con chips dedicados para IA, solo necesita una GPU (potente) normal pero sin chips de IA dedicados, por lo que el hardware the se necesita instalar, y sobretodo el precio, podría cambiar mucho.

Antes de DeepSeek estaba claro que solo podían usar la última generación de GPUs de Nvidia, ahora hay modelos igual de potentes que no lo necesitan. El juego ha cambiado y los dueños de esos centros de datos van a tener que repensar lo que quieren hacer. O simplemente seguir con los mismos planes que tenían porque los nuevos modelos funcionarán igualmente en esas super caras GPU aunque no usen su chip de IA
#19 ¿ Por qué no van a usar ese chip de IA ? Que no lo "necesiten" porque funcionan bien sin él no significa que no puedan sacarle provecho...
#33 Podrían usarlo, pero el sistema está preparado para no usarlo. Si lo instalas en tu PC seguramente ignore esos chips de IA.

China no puede comprar las nuevas GPUs de Nvidia y no creo que dediquen tiempo a ajustar su modelo para usarlo si lo hubiera, pero como es un modelo OpenSource quizá alguien lo haga.
#37 ero el sistema está preparado para no usarlo.
Mas bien el sistema NO necesita usarlo. Pero muy probablemente se pueda usar con mucha facilidad, no hay ningún problema técnico para hacerlo así.

o creo que dediquen tiempo a ajustar su modelo para usarlo si lo hubiera
No creo que necesite ningún "ajuste" que suponga dificultad, bastará un "driver" que implemente una API sobre la tarjeta o algo similar.
#37 China no puede comprar las nuevas GPUs de Nvidia

Sí puede, y lo ha hecho. Deepseek está entrenada con chips de Nvidia.
#45 #62 según las noticias han usado 6 millones de $ en entrenar DeepSeek www.reuters.com/technology/artificial-intelligence/what-is-deepseek-wh

ChatGPT4 costó 100 millones www.wired.com/story/openai-ceo-sam-altman-the-age-of-giant-ai-models-i

Eso es una reducción del 94% en los costes del entrenamiento.

#49 dicen que solo han usado el modelo H800, que es una gráfica de marzo de 2023 y que no tiene los nuevos chips de IA

#48 claro, no podemos pretender que todo el modelo funcione en un solo PC, pero el coste es muy reducido si lo comparamos con otros.
#90 Reconocieron usar los h100 en una entrevista, después salió lo de los h890 convenientemente

Por eso las noticias preguntándose cómo los consiguieron, porque los h800 sí que los podían comprar.
#49 Son chips antiguos, comprados hace años para otro proyecto que fracasó.
#94 Claro, son cientos de millones de dólares invertidos. No los van a tirar cuando el primero de los proyectos falla.
#19 Queda mucho por hacer en el mundo de la IA. Esa app solo acelerará el progreso; además, esto ni siquiera termina aquí, ya que en unos meses tendremos otro modelo superando a DeepSeek.
#19 a ver, para llegar a la potencia que tiene la web de DeepSeek ahora mismo necesitas como un millón en hardware.

Que sí, que comparado con ChatGPT es bastante menos. Pero no me parece comparable.
#45 Son entre 40 veces y 100 veces menos. Hay un orden de magnitud de diferencia.
#19 Algunos modelos de deepseek que no son el modelo final que puedes usar desde el navegador web.
#3 Si se puede hacer por la décima parte del coste, habrá 100 veces menos dependencia de solo una o dos empresas en el mundo, y mucha más independencia, por lo tanto, más libertad.
Se prohíbe la ejecución de programas escritos en China, como quieren hacer los EEUU con los coches, y asunto arreglado. :-D
#4 no es un programa escrito en china, es un modelo, una formula matematica.
#12 Me refiero a que han prohibido el software y hardware chinos en coches conectados.
#4 Por ahi parece que van los tiros....
#4 Pueden tapar el sol con una mano y decir que no existe :troll:
#41 si, porq se lo había contado yo
{0x1f606}
No entiendo la noticia... OpenAI no tiene centros de procesamiento en España. Los datacenter guardan datos, los cuales no se ven afectados por DeepSeek en absoluto: siguen siendo datos. También hay CPDs pero son más clásicos, de computación de toda la vida, no ejecutando OpenAI.

¿Qué hay que cambiar exactamente?

Por otro lado, máquinas que sí entrenan modelos tochos, como la MareNostrum de Barcelona, tampoco hay que cambiarlas. La máquina está perfecta, sencillamente ahora podrá entrenar…   » ver todo el comentario
#23 ¿Qué hay que cambiar exactamente?
Los periodistas por otros que sepan de lo que hablan.
Se renombra DeepSeek por "DeepSeek of América" y todo arreglado :hug:
#14 o FreedomSeek
El impacto será significativo para los desarrolladores si comienzan a crear aplicaciones con DeepSeek, ya que pueden instalarlo en sus computadoras. Ignorarán OpenAI y DeepSeek seguirá actualizándose con nuevos modelos, convirtiéndose en una especie de Linux de la inteligencia artificial.
No lo entiendo.
No debería obligar a rediseñar nada. El diseño actual contempla una capacidad mucho menor que la necesaria, pero no es necesario implantar el 100% de los recursos ni consumir el 100% de la energía prevista. Eso no implica ningún rediseño.
#67 Destilados pero se ejecutan en el Pc. Y el grande y completo se ejecutara en servidores que no seran el de china y por empresas que querran que sus datos no salgan de casa.
ChatGPT no la conoce {0x1f606} {0x1f606}  media
#24 Yo acabo de preguntarle y sí lo conoce
#24 Se conocen en el sentido bíblico, pero los modelos actuales no tienen memoria.
La gente se está flipando cosa mala. Dos días después ya quieren rediseñar todo, al menos en la prensa.

Recordemos también que OpenAi nace en 2015, que 10 años después otra empresa ya sobre unas bases bien fundamentadas haya podido lograr lo que en principio parece un buen avance, no debería sorprendernos tanto.
#22 Ten en cuenta que para los usuarios que no pagan es la primera vez que habrán visto un modelo razonador. La primera vez eso impresiona. Además DeepSeek hce un trabajo excelente redactando la explicación.

Habrá que esperar unas semanas a que se calmen.
#65 No entiendo eso de usuarios que no pagan. Quiero decir, servicios, llamemos freemium hay muchos y en la mayoría son más que suficientes para los usuarios normales y cacharrear.
#76 El acceso a los modelos más grandes, que son los que pueden resolver problemas más difíciles, ha sido de pago hasta esto de DeepSeek.
Completamente errónea una vez mas. DeepSeek ha desarrollado una forma mas eficiente de "hacer los coches" pero esos "coches" que produce son solo algo mejores de los que ya existían y necesitan la misma "gasolina".

"Solo" han conseguido generar un modelo TOP TOP al nivel de O1 de forma más barata. La diferencia es que lo han liberado y han creado otros modelos "destilados" similares a los que ya había.

Dejarse de flipar tanto que esto no va a ser el revulsivo que llevará la IA a los equipos de sobremesa.
#51 Ya está en los equipos de sobremesa.
#57 No. Los modelos que se pueden ejecutar en un PC "normal" en condiciones decentes de velocidad y rendimiento no tienen nada que ver con el R1.

#66 Los modelos de 1.5, 7 u 8 billones de parámetro son modelos tuneados (Destilados) de "LlaMa" o Qwen ... son modelos "Densos" y su rendimiento y tiempo de ejecución está ligado a la cantidad de parámetros.

Esto solo cambia por que hay un competidor que hace coches mejor... pero no hace coches mejores
#51 Según tengo entendido también Consume menos en su uso, pero estaría bien que dieran datos concretos.
Para quien le interese una visión de este tema que me parece muy acertada.
youtu.be/X2o779o5PoE?si=cNHJd2AlEUv2lUcu
#42 Si mas computacion y mas computacion, pero si después de eso te pasa uno por delante con menos computacion y en gratis, las inversiones se lo van a pensar.
Leía que para entrenar los modelos deepseek es muy eficiente, mas que chatgtp, pero para las inferencias se ignora todavía cuan eficiente es.

Algún erudito que sepa algo al respecto? O le pregunto a chatgtp? :-D
#17 Está algo por debajo de o1 Pro, pero no tanto. DeepSeek te vale igual y es gratis. Es la elección clara para jugar un rato.
ui si, están temblando...
Vale. Otro que no entiende como funciona un LLM. Esto va también para los genios de las finanzas que han empezado a venderse sus acciones.

DeepSeek es más pequeño, pero eso es a base de caparlo por unos cuantos sitios. Lo que hace es segmentar la respuesta entre diversos LLM especializados por temas. Si se requiere tocar múltiples temas, la respuesta se retrasará. Hay cosas que están fuera (intenta preguntarle qué hora es).

El entrenamiento sigue necesitando modelos muy grandes.

Esto no es una crítica a DeepSeek, me encanta DeepSeek, es lo mejor ahora mismo. Pero también hay que explicar como lo han hecho.

La repuesta va a ser copiarlo para hacerlo mucho más grande. La competencia actual es por capacidades.
«12

menéame