Según el estudio de la Universidad de California, la cantidad de agua consumida para generar respuestas de IA a las consultas depende del estado y de la proximidad al centro de datos. Para poner esto en perspectiva, Texas tuvo el menor consumo de agua, estimado en 235 ml por cada 100 palabras. Por otro lado, Washington consumió la mayor cantidad de agua, con 1.408 ml por cada 100 palabras generadas. OpenAI estuvo recientemente al borde de la quiebra en los próximos 12 meses, con proyecciones de pérdidas de 5 mil millones.
|
etiquetas: gpt4 , openai , chatgpt , botella , agua , consumo , quiebra , sam altman
Vistos los resultados gasta 0 en cada respuesta. Hip Hip!!
Usará litros, no botellas.
Como para creerse los números...
El mismo proceso que una torre de refrigeración de una central nuclear.
A ver si vamos a estar construyendo centrales nucleares para nada, cuando se puede usar la energía de las chorradas que escriben los LLMs…
El calor podrías aprovecharlo ,pero creo que te costaría más el collar que el galgo.
Lo que Es incomprensible que se abra un cod en Talavera de la reina, cuando el mayor consumo es de enfriar equipos
Yo ya he visto varias empresas que lo están intentando, no hablo por hablar.
Esta iniciativa quiere dar calefacción a 10.000 hogares con el calor reciclado de centros de datos
www.20minutos.es/tecnologia/actualidad/calefaccion-10000-hogares-calor
La entalpía de vaporización del agua es de 2257 KJ/kg probablemente la más alta en condiciones normales.
Pero como no has ido a clase cuando debías, dices tontería cuando no vienen a cuento.
Es sensacionalismo del bueno
Creo que Netflix también es "no critico" para la civilización.
Los memes, fuera
Y quizá meneame, no?
O solo quitamos lo que a ti no te parece bien?
Para descomponerla necesitas más energía de la aportada. Una cafetera no es suficiente.
La energía de los parques eólicos no son para mejorar la economías de las familias; serán para el mejor postor.