Según el estudio de la Universidad de California, la cantidad de agua consumida para generar respuestas de IA a las consultas depende del estado y de la proximidad al centro de datos. Para poner esto en perspectiva, Texas tuvo el menor consumo de agua, estimado en 235 ml por cada 100 palabras. Por otro lado, Washington consumió la mayor cantidad de agua, con 1.408 ml por cada 100 palabras generadas. OpenAI estuvo recientemente al borde de la quiebra en los próximos 12 meses, con proyecciones de pérdidas de 5 mil millones.
|
etiquetas: gpt4 , openai , chatgpt , botella , agua , consumo , quiebra , sam altman
Usará litros, no botellas.
Como para creerse los números...
La entalpía de vaporización del agua es de 2257 KJ/kg probablemente la más alta en condiciones normales.
Pero como no has ido a clase cuando debías, dices tontería cuando no vienen a cuento.
El mismo proceso que una torre de refrigeración de una central nuclear.
A ver si vamos a estar construyendo centrales nucleares para nada, cuando se puede usar la energía de las chorradas que escriben los LLMs…
El calor podrías aprovecharlo ,pero creo que te costaría más el collar que el galgo.
Lo que Es incomprensible que se abra un cod en Talavera de la reina, cuando el mayor consumo es de enfriar equipos
Yo ya he visto varias empresas que lo están intentando, no hablo por hablar.
Esta iniciativa quiere dar calefacción a 10.000 hogares con el calor reciclado de centros de datos
www.20minutos.es/tecnologia/actualidad/calefaccion-10000-hogares-calor
Es sensacionalismo del bueno
Creo que Netflix también es "no critico" para la civilización.
Los memes, fuera
Y quizá meneame, no?
O solo quitamos lo que a ti no te parece bien?