edición general
WalkmanFM

WalkmanFM

En menéame desde mayo de 2016

6,00 Karma
66K Ranking
Enviadas
Publicadas
Comentarios
Notas

"Hay cosas que son verdad y es indemostrable que sean verdad. Y es un tema matemático, no una afirmación filosófica" [142]

  1. #96 Todas las cosas que las matemáticas demuestran son verdad -esto significa que las matemáticas son consistentes-, pero todas las cosas que son verdad no son demostrables por las matemáticas -esto significa que no son completas-.

Nvidia anuncia GTX 1080 y 1070, más rápidas que Titan X [173]

  1. #171 El problema es que la potencia disipada al aumentar la frecuencia (y por tanto el voltaje) se dispara y entonces aparecen dos problemas: temperatura y consumo, es decir, baja eficiencia.

    Para solventar esto (desde el Pentium 4) lo que se hace es incluir más nucleos en el mismo chip de silicio, incluir más memoria caché, la GPU, etc.

    Lo que te decian en cuanto a superar los 2.4GHz no es ninguna tontería, una conexión lo suficientemente grande por la que circule una señal de tal frecuencia puede comportarse como una antena, con lo que pueden aparecer muchos problemas si no se tiene cuidado.

    El caso es que, teniendo en cuenta que hay que aumentar el voltaje para estabilizar una CPU a la que se le aumenta la frecuencia, y considerando la ecuación de la potencia dinámica disipada (images.slideplayer.es/7/1751010/slides/slide_6.jpg) lo que se obtiene es que la potencia disipada depende cuadraticamente del voltaje y linealmente de la frecuencia (esto para la familia CMOS), con lo que la situación se hace insostenible (no hay demasiadas CPU que superen los 3.xGHz y para las GPU la cosa se complica aun más teniendo en cuenta la densidad de transistores con la que trabajan).
  1. #160 La arquitectura circulante que utilizan las GPUs es mucho más escalable que la arquitectura Von Neumann que utilizan las CPUs, con lo cual cada vez que se reduce el tamaño se consigue reducir el consumo y aumentar el rendimiento simplemente añadiendo más unidades de procesamiento.
    La CPU ya hace tiempo que tocó techo en la carrera de los GHz y ahora les pasa lo mismo con el tamaño de integración, a lo que aspiran es a reducir el consumo, aumentar ancho de banda de la memoria (incluyendo mejoras en memoria caché) y a integrar junto al procesador todo lo que puedan (la propia GPU, por ejemplo).
  1. #115 No creo que haya ningún juego desde que salieron los multicore que no utilice programación paralela.

    El hecho de que la CPU vaya sirviendo a la GPU las matrices de vectores para que la esta las convierta en matrices de píxeles y aplique texturas ya es un punto en el que se puede paralelizar preparando matrices en varios cores a la vez.

    En cuanto al tema del cuello de botella que repetís mucho, basta con que os fijéis en el chipset que utilizáis y en el ancho de banda de memoria de vuestra CPU, ya que la CPU va a escribir en RAM las matrices de vectores para que la GPU copie directamente dichas matrices a la memoria de video (mucho más rápida) y empiece a trabajar.
    Actualmente, con las velocidades de las memorias DDR3 y DDR4, no hay que preocuparse de cuellos de botella en juegos (no así en edición de vídeo/imágenes de gran resolución [p.e.: uso en astronomía]).

    Además la CPU también se encarga de manejar la inteligencia artificial del juego en cuestión, entre otras cosas, con lo que cuantas más cosas pueda hacer simultáneamente mejor, siempre teniendo en cuenta que 8 cores accediendo a la memoria caché van a dar más problemas de coherencia y en los accesos que 4 cores (véase por ejemplo AMD -típicamente con muchos cores- comparada con Intel, que normalmente hace implementaciones de sus arquitecturas con solo 4 cores).
« anterior1

menéame