Entrenar GPT-3, el modelo de lenguaje largo (LLM) detrás del éxito de ChatGPT en 2022 requirió unos 1.287 megavatios-hora (MWh) de electricidad. O, lo que es lo mismo: conseguir que esta herramienta se perfeccionara a hombros de 175.000 millones de parámetros produjo las mismas emisiones de carbono que un coche tras recorrer 700.000 kilómetros. Desde entonces, la cosa no ha hecho sino empeorar: aunque las cifras exactas para GPT-4 no han sido divulgadas públicamente, se estima que su entrenamiento requirió 65.300 MWh de electricidad, lo que g
|
etiquetas: ia , chatgpt , nube , crisis energética , centros de datos , peak data
Podían recrear una Ejpaña en su plenitud no sé si la época de franco o cuando no se ponía el sol y los tercios eran temidos, a ver si enchufan a unos cuantos "nostálgicos", que tienen mucha energía para dar.
www.forbes.com/sites/bobeccles/2024/08/31/microsoft-can-take-the-lead-
Edit: Coño. Sio comentan en la noticia. Eso me pasa por comentar a media lectura.
Se lo escuché a un especialista que entrevistaron el finde en 'A vivir...' en la SER:
cadenaser.com/audio/1734264503013/
NB: (Ole los de la ser que suben el programa recortadito y ordenado. Me he quedado picueto. )
Edit: Luego está bloque comenta #12 que es muy interesante.
En todo caso, aunque usar la IA representase el mismo gasto que entrenarla, ¿ChatGPT gastaría lo mismo que DOS coches? Repito, o no entiendo la analogía, o está mal redactada.
Edit: Esto era para el ignorante del ignore, el tal Pedro_Chosco en #_24.
Negativo por perdida de tiempo.
Me cuelgo de #19, gracias.
No es un problema de cómo se genera la energía, sino para qué, en este sistema capitalista global y extractivo, el objetivo último de producir energía, es seguir aumentando el capital ad infinitum.
Lo digo principalmente por la magnitud y también por la utilidad de esos consumos, que influye mucho en si esos consumos son justificados o no.
Y leyendo sobre ella queda claro que no aplicaría aquí dado que el incremento de emisiones en fusión nuclear del hidrógeno no seria ningún problema.
Por otro lado, sectores como la minería, agricultura o transporte, están muy lejos de la electrificación total o parcial (el consumo de energía primario a nivel mundial, sigue siendo por encima del 80% de orígenes fósiles).
Esa paradoja también… » ver todo el comentario
4. f. Arg., Bol., Par., Perú y Ur. Hecho o situación que produce incomodidad o disgusto.
Sin.:
incomodidad, molestia, fastidio.
dle.rae.es/macana
Mis dieses
1 Que yo sepa, lo costoso de una red neuronal es el entrenamiento, que haces el principio, no la ejecución.
La IA tiene un temible costo ambiental, ChatGPT consume 1 litro de agua por cada 100 preguntas
www.xataka.com.ar/robotica-e-ia/ia-tiene-temible-costo-ambiental-chatg
#6 las nuevas versiones "piensan" mas tiempo, desde 20 segundos hasta minutos por cada planteo.
los centros de datos de Google utilizaron casi 20.000 millones de litros de agua, lo que representa más o menos cerca de un 10% del consumo de agua que tiene, por año, un país del tamaño de España
Segun el INE: El consumo medio de agua de los hogares españoles fue de 133 litros por habitante y día en 2020
Eso son 2.427.000 millones de litros. No es ni el 1% ¿Son subnormales los de xataca?
No es sostenible de ninguna de las maneras...
Crees que el problema seguiría siendo el consumo energético?