cuando entra a "trabajar" la decoherencia, es cierto que el sistema medido evoluciona a otro estado, donde las matriz de densidad reducida se vuelve diagonal. Pero todavía queda algo de "colapso" en la medida en el sentido de que, de todos los posibles estados en la diagonal, sólo se elige uno. Es decir, la decoherencia explica por qué la superposición de estados desaparece, pero no explica la elección final de qué estado es seleccionado, según la probabilidad. Luego todavía queda por explicar por qué esa última parte probabilistica que, o bien aceptamos que es inherente a la misma realidad física (lo que sería un enfoque Copenhage) o podríamos decir que falta algo por conocer.
#65 De nuevo, estás confundiendo "autoconsciencia" con "consciencia". Muchas de las discusiones en ese campo vienen por que la gente habla de cosas diferentes. "consciencia" no implica percepción de la existencia propia. Está más relacionado con la percepción de cualquier cosa, interior o exterior (como comentaba más arriba, "awareness" en inglés). La sensación de la percepción consciente de una realidad (exterior) no requiere de una percepción consciente de nuestra existencia. El problema "duro" de la consciencia no implica tener que buscar magia alguna. Tan solo admitir que hay una parte del problema que no se entiende todavía. Y eso es algo que a mucha gente le cuesta aceptar. Si lo piensas bien, en el último medio siglo, da la impresión de que la ciencia ha avanzado mucho, pero en realidad es la tecnología la que lo ha hecho. Si piensas en las cuestiones más básicas, tales como los fundamentos de la cuántica (el problema de la medida, por ejemplo), apenas hay nada nuevo con respecto a lo que los grandes físicos de la primera mitad del siglo XX crearon. Hay gente que dice "no, si el problema de la medida lo resuelve la decoherencia", cosa que no es cierta, pero que ayuda a algunas consciencias a dormir mejor . No es que venga yo a decir aquí que la ciencia no avanza, por que lo hace, y mucho. Pero parece que da sarpullido hablar de aquellos puntos esenciales donde los campos patinan, aún siendo preguntas muy básicas y donde, en muchas décadas, se utiliza mucho el crear teorías y argumentos muy complejos que enmascaran una incapacidad de abordar dichos temas. Y otra gente prefiere esconderlos debajo del felpudo con dos frases de café de media mañana. Y, claro, otra gente se inventa magufadas, no digo que no. Pero no despreciemos grandes cuestiones por resolver, tan solo por que nos de miedo aceptar que todavía quedan cosas donde el método científico tiene problemas de aplicación (precisamente, el problema de la consciencia).
No por que algo sea difícil de estudiar, deja de existir.
A ver, sí y no. Decir que el problema de la consciencia es simplemente una cuestión del "software" adecuado, es no entender el problema de la consciencia. Además, en el artículo confunde el término "consciencia", entendida como awareness en inglés con el término "autoconsciencia". El autor del artículo hace bien en hablar mal de los que hablan sin saber de lo que hablan, pero él mismo creo que habla sin saber de lo que habla, al menos en términos de consciencia. Menospreciando el valor de una pregunta que lleva no siglos, sino milenios rondando la mente de los mayores pensadores de la humanidad en todas las culturas, desde oriente hasta occidente. En el caso de occidente, el reduccionismo nos ha dejado un poco ciegos a la hora de entender la auténtica pregunta. Para entender un poco el "meollo" del asunto, creo que Chalmers es un buen comienzo:
#175 ejemplo:
Te compras un yogur líquido. Lo estás bebiendo tan feliz por la calle con tu bocata de chorizo... cuando un rezumado de yogur procedente del tapón te mancha/gotea sobre la nariz, o el moflete, según preferencia.
Bruselas planea además acometer una simplificación de la regulación comunitaria con la meta de reducir en un 25 % la carga burocrática para las empresas
Maravilloso, me permito mejorar la frase:
Bruselas planea dedicar una parte de su fuerza para intentar acometer una posible simplificación de la regulación comunitaria con la meta de reducir hasta en un 25 % la carga burocrática para las empresas.
>Empezamos por salirnos de la OTAN y llegando a un acuerdo con Rusia y el resto de brics?
No se yo con Rusia...
> También estaría bien que el iter fuese sólo nuestro, e impulsarlo para ser los primeros en lograr la fusión como fuente de energía.
¿Y todo el dinero que han puesto otros países qué? ¿lo adelantamos? Además, ITER es la vía más fiable, pero también la más lenta posible hacia la fusión. No sé si seríamos los primeros con SPARC en EEUU.
> Y crear de una vez nuestros propios chips.
> También en computación cuántica deberíamos de espabilar.
> En lo militar, necesitamos misiles hipersónicos y sistema de defensa antiaéreo de primer nivel.
Bueno, no digo que no pero, después de haber pertido productividad y competitividad en Europa desde hace décadas, no esperes menos que décadas en volver a ello.
No es que quiera ser negativo pero, además de ser optimista, hay que ser realista.
Si bien estoy de acuerdo contigo en que Europa debería replantearse las cosas, no creo que sea tarea simple que se arregle en un café.
#47 Creo que hay alguna consecuencia que se te escapa: Los bomberos se pueden considerar un bien que, en caso de emergencia, va a considerarse como recurso limitado (en un gran incendio, siempre faltarán bomberos por que tener su salario pagado el resto del año si solo son necesarios una vez cada 10 años es muy poco rentable). En tales situaciones de extremo peligro, si el bombero se "vende" al mejor postor, esto es, al que más paga (como es el caso ahora), esos recursos tan valiosos van a ser utilizados de forma poco eficiente, ya que ese bombero podría hacer mucho más si no se quedara vigilando y apagando una sola mansión. Es decir, no es ya sólo que, en caso de emergencia extrema, el rico salva su casa y el pobre se quema, sino que la eficiencia del sistema, en este caso, se ve reducida. Pero... ¿¿no era el capitalismo siempre más eficiente?? No en este caso de recursos limitados, parece ser...
#51 Genera al menos ozono, que puede tener efectos adversos sobre la salud. Aunque en el vídeo se comenta que se coloca un catalizador después para recoger el ozono. Supongo que tendrán que probar muy bien que en el proceso de ionización del aire no se producen elementos químicos dañinos que no sean absorbidas por el catalizador...
#50 El cacharro éste funciona en corriente continua. No interfiere con la RF. Otra cosa es que genera un campo estático muy fuerte, pero se puede apantallar colocando placas adecuadamente, como si fuese un condensador (de hecho, dentro de los condensadores puede haber campos eléctricos bastante grandes).
Puedes ver que, efectivamente, se puede reclicar un porcentaje del agua. Pero parece ser que no todo. En la web comentan que hay una medida relacionada que es el "Water Usage Effectiveness (WUE)", que en caso de AWS es 0.16 litros por kWh.
Según se comenta en la web, en EEUU se llegan a circular por datacenters muchos miles de hectómetros cúbicos de agua al año. Por ejemplo, sólo en Council Bluffs (Iowa) se alcanzan los 3292Hm3. Por comparar, y por casualidad, esa es exactamente la capacidad el embalse más grande de la España, el de La Serena (3220Hm3):
Es decir, es como si el embalse completo de La Serena recirculara una vez al año por los datacenters de Council Bluffs.
Está claro que el agua no desaparece, sino que se traslada a otro sitio, ya sea evaporada, reutilizada en regadío, cisternas de baño, o como desecho industrial a ríos. Pero la recirculación existe, y es agua que no se puede utilizar para beber, sino que recircula por otro "canal" no potable.
Por eso, llegado el extremo, hay que tener cuidado de que el FLUJO (Hm3/año) de agua necesaria para datacenters sea comparable con el extraído de embalses. Por que, en ese caso, todo el "extra" no puede reutilizado en regadío o industrial (por que no hace falta) y se "gasta" el embalse, que ha sido rellenado gracias a la energía solar del sol que es nuestra bomba y desalinizadora natural del agua del mar. No es una cuestión de que se acumule agua en los datacenters, sino de que no puede volver al embalse por que deja de ser potable tras recircular.
En resumen, lo que puede generar problemas es que el FLUJO de agua necesario para datacenters llegue a ser comparable al FLUJO utilizado para uso humano, ya sea regadio, industrial o potable.
A no ser, claro, que se pueda devolver el agua como potable al pantano... ¡pero yo no me fiaría mucho!
#12 Es cierto que las bombas de calor pierden eficiencia cuando el ratio entre temperatura exterior e interior crece, pero eso pasa en todas las bombas de calor, domésticas o no. Es una cuestión puramente termodinámica (Carnot). No hay mucha solución al respecto...
...bueno sí: llevarse la bomba de calor a un clima templado y devolver el calor por tubos aislados (o directamente traer el calor del clima templado por tubos aislados ).
#5 No es un campo eléctrico debido a la variación de un campo magnético (inducido). El campo eléctrico medido (ya propuesto hace mucho) es denominado ambipolar, lo cual quiere decir que su "objetivo" consiste en igualar los flujos de carga positiva y negativa. El campo magnético de la tierra no atrapa por igual a los iones que a los electrones que vienen del espacio. Esa diferencia genera corrientes eléctricas que acumulan carga, que genera un campo eléctrico, que reduce las corrientes eléctricas a cero. En otras palabras, el campo eléctrico ambipolar evita la acumulación de carga eléctrica que, de otra forma, generaría campos eléctricos más intensos. Es un equilibrio. Es algo natural en los plasmas.
Aquí en una publicación asociada lo comenta:
There is substantial ambiguity in the strength of the electrostatic field of
Earth, its physical drivers, and its role in the escape of ions to space. At a
minimum, this field is thought to be underpinned by an ambipolar elec-
tric field. These fields are generated as ionospheric electrons attempt
to escape to space under their own thermal pressure. As the electrons
attempt to pull away from the heavier ions, an ambipolar field arises to
maintain charge neutrality [...]
También podría ser por un cristal entre la cámara y el sol (una ventana). Teniendo en cuenta que aparentemente se grabó desde una habitación de un hospital, parece probable:
Es increíble que esto haya llegado a las noticias de la televisión y los periódicos. Esto nos dice el poco cuidado con el que se seleccionan, patético. Este efecto es debido no a la atmósfera sino, probablemente, a las lentes del objetivo. Lo llaman Parhelio, pero eso no es un Parhelio, basta con buscar en la wikipedia para ver que no tiene nada que ver:
En primer lugar, el fenómeno es asimétrico (reflejos hacia un lado). Eso no tiene mucho sentido. En segundo lugar, las nubes que hay delante del sol se repiten en las copias... eso tampoco tiene mucho sentido.
El verdadero motivo por tanto está, muy probablemente, en la propia cámara de fotos. Debido a la intensidad de la luz tan fuerte del sol refleja en las lentes del teleobjetivo y salen varias copias. Eso es más probable. O bien lo han hecho a propósito con algún efecto digital.
#9 para quemarse un objeto, es más importante la cantidad de luz que recibe que las propiedades precisas de absorción. Me explico:
Si un objeto absorbe "solo" el 70% de la luz que recibe, y recibe 1000W de potencia de luz por metro cuadrado, y el objeto mide un metro cuadrado, pues recibirá 700W de potencia de calentamiento.
Si el mismo objeto absorbe el 99% de toda la la radiación que recibe, pues recibirá 990W de potencia con la misma fuente de luz que en el ejemplo anterior.
Fijate que la cantida de potencia que recibe no es muy diferente, a pesar de lo extraordinario del segundo material. Por tanto, el segundo no es probable que salga ardiendo (nuevo material) si el primero no sale también (camiseta negra).
Eso sí, en caso de mirar, no la luz y energía absorbida, sino la reflejada, el primero refleja un montón más de potencia de luz (300W) que el segundo (10W). En ese sentido, si quieres reflejar poco (por ejemplo en las paredes de un telescopio, donde la luz reflejada por las paredes es parásita), pues es muy superior en prestaciones una cobertura con el segundo material que con el primero.
En resumen, absorber 700W frente a 990W no es tanta ganancia/pérdida de prestaciones como a reflejar 300W frente a 10W.
cuando entra a "trabajar" la decoherencia, es cierto que el sistema medido evoluciona a otro estado, donde las matriz de densidad reducida se vuelve diagonal. Pero todavía queda algo de "colapso" en la medida en el sentido de que, de todos los posibles estados en la diagonal, sólo se elige uno. Es decir, la decoherencia explica por qué la superposición de estados desaparece, pero no explica la elección final de qué estado es seleccionado, según la probabilidad. Luego todavía queda por explicar por qué esa última parte probabilistica que, o bien aceptamos que es inherente a la misma realidad física (lo que sería un enfoque Copenhage) o podríamos decir que falta algo por conocer.