#27 yo pienso parecido a ti, pero creo que al PSOE le favorece tener a la "freak parade" en la puerta. Mostrar como es realmente la derechona en este país y "lo que vendría" si tocan poder, no hace sino soplar a favor. Pero tal vez no, claro
#7 Hay en internet una charla sobre ECS con las transparencias y todo, creo que eran de algún empleado de THQ, no te puedo decir mucho más sobre cómo encontrarlas.
También tienes un capítulo dedicado a ECS en el libro "Game Programming Patterns", de Bob Nystrom. Libro indispensable por cierto para todo el que quiera programar videojuegos.
cc #8
#7 Soy tan neófito como tú, lo siento Comparto estos enlaces para complementar con los comentarios información de los artículos y similar que busco por Internet. Estoy aprendiendo programación de cero, y por el momento el libro que más veo recomendado es Código Limpio de Robert C. Martin.
#16 Ten presente que el M1 va a 5nm, se nota mucho el salto de litografía. Es muy buen micro pero es pronto para decir que x86 toca a su fin, los x86 por debajo hace años que son más RISC que CISC. De hecho creo que serán los RISC-V el futuro y no ARM, pero para eso quedan todavía muchos años.
#2#4#12#62#6#38#64 Lo son. Lo que no te dicen es que son revolucionarios gracias a AMD y que eso ya existía desde hace más de un lustro.
Ya lo comenta #89, AMD desarrolló en su día una cosa llamada memoria unificada (y más cosas en algo llamado HSA o heterogeneus system arquitecture, que volverá a incorporar en la próxima vuelta de tuerca de su arquitectura ZEN) para su proyecto fusion, que quiso impulsar (porque para aprovechar sus ventajas, había que programar para ella) juntándose con ARM e imagination entre otras (www.hsafoundation.com/); ya sabemos que APPLE basa sus procesadores en ARM y sus GPUs en PowerVR (le compró a imagination tecnologies la tecnología, hace un par de años que ya apple va por su cuenta) así que ya sabemos de dónde sacó las ideas para su M1. Cuando eso, AMD no tenía la pujanza de ahora, Intel machacaba el mercado y AMD tenía poca pasta. La parte hardware estaba (ahí están sus primeras APUs y las consolas play4 y xboxone), pero tenían muchas debilidades por algunas decisiones arquitecturales, su pila de software estaba en plena reconstrucción y sobre todo opencl (que es lo que realmente aprovechaba las particularidades de estas APUs) nunca despegó a nivel usuario (Nvidia se impuso con su software cerrado).
El fusionar una CPU y una GPU utilizando ambas acceso coherente y común a la memoria y a la caché no despegó: la cpu era muy flojita, el usar opencl para realizar cálculos en la gpu y descargarla funcionaba muy bien, pero nunca tuvo mucho recorrido (opencl es una api muy mejorable), los drivers estaban muy verdes, aún no existía mantle (y sus sucesores, directx12, vulkan, metal) con lo que opengl y directx aún sobrecargaban la CPU a nivel de driver al ejecutar tareas pesadas en la GPU, la tecnología de fabricación era muy antigua (comparada con la de intel, que iba en vanguardia en ese entonces) y por lo tanto los chips eran grandes y por lo tanto caros de producir, se calentaban y consumían mucho... AMD tuvo que tirar la… » ver todo el comentario
#89 Si y no. Habría que ver qué cargas de trabajo les ponen.
Igual te vale más la pena 1 núcleo a toda pastilla que termine el trabajo lo antes posible aunque consuma mucho en ese periodo y tenerlo parado y consumiendo 0 el resto del tiempo o igual te vale más la pena tener 40 núcleos consumiendo muy poquito y activos continuamente...
#73 Cuando apiñas una cantidad bestial de bichos pequeños, terminas siendo más grande que los bichos grandes. Eso sólo demuestra que el tamaño de la piña final de bichos es mayor, no que un bicho sea mayor que otro bicho individual.
Igualmente, esto puede ser mucho más potente para ciertas cargas de trabajo y quedarse por detrás en otras, habría que ver los distintos benchs y examinar los detalles, e igualmente tampoco reflejaría al 100% la realidad porque los test sintéticos no dejan de ser eso, algo que sólo representa cosas concretas y específicas.
#73 Lo que pasa que los ARM son más baratos y consumen menos, por eso merece la pena crear grandes computadoras ARM. Pero en un solo encapsulado y para PC's todabia están lejos.
#9 Llegaron muy tarde. Y en una progresión exponencial como la que había, ganar 24 o 48 horas al principio habría supuesto reducir a la mitad los muertos.
#9 Yo haría un ajuste: las autoridades sanitarias de casi toda Europa y EEUU... Porque nadie reaccionó cuando China ya llevaba un tiempo con cuarentena absoluta, ni cuando en Italia ya estaban viendo las orejas al lobo a alguien se le ocurrió hacer cuentas en el inventario de material, y ahora todos con prisas porque estamos con bolsas de basura como EPI y comprando mierdas que no sirven en China a precio de oro.
#9 depende de cuando veas el inicio de la crisis. Para mi como pronto fue cuand murió el primer paciente el 12 de febrero. No hacer test al fallecido antes fue un error por no tener un procedimiento para pacientes con neumonia cuando el virus ya estaba en Europa, eso fue parte del retraso.