Los más sagaces habrán descubierto que se trata de una inocentada de 28 de diciembre. He incluido una aclaración final, donde se destaca el porqué el resultado es relevante (aún siendo usado como excusa para una inocentada).
#33 el gran objetivo de quienes trabajan en ordenadores cuánticos es lograr la supremacía cuántica, que, en al menos un problema concreto, el ordenador cuántico sea más rápido que el mejor ordenador clásico disponible en el mundo.
Investigadores de la empresa canadiense D-Wave Systems han publicado que su última máquina lo ha logrado. Investigadores en ordenadores cuánticos (que ya criticaron otros anuncios previos) han demostrado que no es cierto, porque no han usado el mejor algoritmo clásico disponible.
Además, otros investigadores en ordenadores cuánticos han encontrado un límite físico para la potencia de cálculo de las máquinas de D-Wave Systems. Depende de la temperatura a la que se enfría su máquina. Si quieren añadir más potencia de cálculo tienen que enfriar a una temperatura más baja. Conforme mejoran sus máquinas, su coste crece mucho debido a este límite físico.
#2 En #3 te lo han explicado muy bien. Me gustaría añadir algo. La idea de Verlinde es que se observa la materia oscura solo donde hay materia ordinaria (la materia oscura resultaría de la reacción de la energía oscura a la presencia de la materia ordinaria). El nuevo artículo ha repetido lo que ya hizo Vera Rubin hace 40 años y ha buscado señales de materia oscura en galaxias (de materia ordinaria). La ha encontrado, luego se afirma que Verlinde tiene razón (como es obvio buscan eco mediático). Pero sabemos que hay materia oscura donde no hay materia ordinaria. Esto contradice la teoría de Verlinde. Pero si algún artículo encuentra nuevas pruebas de este hecho, nunca dirá que contradice a Verlinde. Solo se apuntarán al carro mediático de Verlinde quienes repitan lo que hizo Rubin y encuentren lo que ella encontró.
Saludos a todos. Siento no haber contestado antes, no conocía esta iniciativa de las entrevistas en Menéame. Al grano.
(1). No lo sé. Por un lado, el tiempo cunde más de lo que parece. Por otro lado, abarco menos cosas de las que aparento abarcar.
(2). No fue intencionado. Coincidió que en el viaje en tren a Sevilla desde Málaga estuve leyendo el último libro de Lawrence Krauss que se inicia con la caverna de Platón. Estas ideas permean todo el libro. Quizás por eso hice guiños continuos a presocráticos y a Platón.
(3). No lo creo. El nacimiento del modelo estándar en los 1970 vino acompañado de cientos de ideas más allá del modelo estándar (que pretenden matar a la gallina de los huevos de oro antes de que complete su puesta). Los colisionadores de partículas actuales no tienen energía suficiente para explorar la mayoría de dichas ideas. Así que estamos estirando dichas ideas cual chicle boom para acercarlas a la energía que podemos alcanzar en los colisionadores. Quizás por eso parace que estamos dando palos de ciego. Pero no hay que olvdiar que hoy en día los físicos en lugar de "salvar las apariencias" están tratando de buscar nuevos indicios que ayuden a inventar nuevos experimentos y nuevos métodos observacionales para explorar lo que hay más allá del modelo estándar. Por eso quizás parece que damos palos de ciego. Pero no hay diferencia entre lo que hacemos ahora y lo que hicimos en el siglo XX, o en siglos previos. Así funciona la ciencia y la física. Nada es gratis. Los avances en la frontera del conocimiento son extremadamente difíciles de lograr y requieren un trabajo de muchas décadas. No creo que sea apropiado decir que nos dedicamos a "salvar las apariencias" cuando nuestra labor es así de proactiva.
Pongo un ejemplo. Las predicciones genéricas de la inflación cósmica parecían imposibles de explorar en 1995, ya que COBE (y los futuros WMAP y Planck) creíamos que solo podrían observar postdicciones de la teoría (como la homogeneidad, isotropía, gaussianidad, etc. de las anisotropías). Sin embargo, en 1997 se descubrió una "marca" genérica de la inflación, los modos B en el CMB. Para WMAP era imposible observarlos, pero se diseñó Planck para intentar observarlos (aunque no lo ha logrado). En paralelo se diseñaron muchos observatorios para lograrlo (ninguno lo ha logrado aún). Puedes pensar que damos palos de ciego. Pero en 1995 era imposible concebir que existiera esta "marca" de la inflación (cuando se confirme ésta obtendrá un premio Nobel) y ahora hay diseños de telescopios espaciales específicos.
#148 Exactamente. Mucha gente hablaba de descubrimiento, olvidando que oficialmente no había nada. Había que esperar. La espera a finalizado y se confirma que no había nada. La física es así. La ciencia es así.
#88 Vibra el tejido del espaciotiempo y se propaga a la velocidad de la luz en el vacío (un retraso de unos 7 milisegundos entre los dos detectores de LIGO).
#3 Gracias. Lo cambio. El bombo se diseñó en 2006 para almacenar 85.000 bolas (el anterior bombo estaba diseñado para 60.000), pero desde 2011 se introducen 100.000 bolas. Para que la mezcla (y el azar) sea igual de bueno se requiere un mayor número de vueltas al bombo (supongo que así lo harán, no he visto el sorteo este año).
#2 en la cosmología actual, antes del bang existió la inflación cósmica (el big bang es la evolución del universo después de la etapa de recalentamiento, es decir, el final de la inflación). ¿Qué existía antes de la inflación? Según la cosmología actual un estado de falso vacío (un estado de vacío inestable) para algunos campos junto con un estado de vacío para muchos otros campos cuánticos.
#13 Gracias. Una figura del paper "Acute respiratory distress syndrome after convalescent plasma use: treatment of a patient with Ebola virus disease contracted in Madrid, Spain" se incluye en un tuit de la revista: twitter.com/TheLancetInfDis/status/605368327406518272
#1 "On Clerks II 's MySpace account, a contest was held in which the first 10,000 MySpace users who added Clerks II as a friend would have their name in the theatrical and DVD end credits; The list follows the View Askew and Weinstein Company logos. The names are not present in the credits on the Region 2 DVD." en.m.wikipedia.org/wiki/Clerks_II
#41 Imagina la materia oscura como hecha de partículas similares a los neutrinos. Unos 65 mil millones de neutrinos solares atraviesan cada centímetro cuadrado de tu piel cada segundo, ¿les afecta la gravedad? No. La sección eficaz es más de 30 órdenes de magnitud inferior a la sección eficaz de su interacción débil y esta última les permite atravesar un año luz de plomo (con probabilidad del 50%).
No sé si puedes imaginar estos números tan extremadamente pequeños. Pues bien, los asociados a la materia oscura son comparables (pone entre 10 y 1000 veces más grandes en el mejor de los casos). Recuerda que los límites de exclusión de la materia oscura se están acercando al fondo cósmico de neutrinos primordiales...
Cuando un físico dice que no sabe lo que es la materia oscura (qué propiedades tiene como partícula) no significa que no sepamos nada de la materia oscura. Sabemos muchísimas cosas, pues llevamos estudiándola en detalle unos 50 años. Sabemos muchas cosas y podemos estudiar el universo a muchas escalas con y sin materia oscura. Y sabemos que todo funciona si ponemos la materia oscura, pero no funciona nada de nada si no ponemos materia oscura o suponemos que materia ordinaria. Ni la evolución galáctica, ni la formación de cúmulos, ni la web cósmica, ni muchísimas cosas que sabemos que entendemos bien las sabemos entender sin materia oscura.
Sabemos mucho de la materia oscura y cada día sabemos más cosas. Pero a los físicos nos gustaría saber cuáles son las partículas de materia oscura entre todas las posibles decenas de partículas que se han propuesto. Cada físico famoso ha propuesto su propia partícula para explicar la materia oscura. Pero sólo uno de ellos ha dado con la respuesta correcta y no sabemos quién es. Por eso las estamos buscando con ahínco.
Que no os engañen los físicos como yo. No sabemos el secreto de la superconductividad de alta temperatura, pero sabemos infinidad de cosas de los superconductores de alta temperatura. No sabemos qué partícula explica la materia oscura, pero sabemos muchísimas cosas de la materia oscura. Muchísimas cosas. No lo olvidéis.
#2#4 ¿Son planetas/superplanetas o asteroides que "no vemos"?
Imagina que unas tres veces la masa de todas las estrellas de nuestra galaxia, la Vía Láctea, está en forma de planetas o asteroides. La materia oscura no pueden ser cuerpos fríos (que no brillan) como planetas o MACHOs (Massive Compact Halo Objects).
Además, los estudios de lentes gravitacionales débiles deberían ver dichos objetos. Pero no los vemos, lo que limita su masa. Los únicos MACHOs que se podrían esconder a todos los estudios realizados deben tener una masa menor de un tercio de la masa de la Luna. No es razonable que varias veces la masa de todas las estrellas de una galaxia, o de un cúmulo galáctico, o de un supercúmulo galáctico, esté en objetos fríos con un tamaño sublunar. No hay ninguna teoría de formación de estos objetos que permita explicarlo.
#20#5 ¿materia atrapada en forma de agujeros negros? Deberían ser agujeros negros de muy poca masa (sublunar), si tienen mayor masa deberíamos haberlos visto. No hay manera de explicar un número tan grande de agujeros negros con tan poca masa como para pasar desapercibidos.
#32#2#4 Si fuera materia ¿se podría colisionar con ella?
La interacción entre la materia (ordinaria) y la materia oscura es extremadamente débil. En varias colisiones de cúmulos galácticos (como el cúmulo Bala) se observa que la materia oscura y la ordinaria se comportan como si no interaccionaran absolutamente nada (salvo por la gravedad).
En los experimentos de búsqueda directa de la materia oscura se buscan partículas "oscuras" que interaccionen con los núcleos de átomos en un detector. Se suele asumir que la interacción está mediada por el bosón de Higgs (porque las partículas "oscuras" tienen masa). En la actualidad los límites para el acoplo de interacción entre partículas "oscuras" y partículas (ordinarias) es extremadamente pequeña (más de diez órdenes de magnitud más pequeña que la interacción de los neutrinos… » ver todo el comentario
#6,#7,#8 Hay dos cuestiones separadas e importantes.
Por un lado, la posible observación de modos B primordiales gracias a Planck. Mucho menos sensible que BICEP2, los buscará en un 70% del cielo, un área unas 30 veces mayor que la ventana de BICEP2. Si el valor de r > 0,05 (BICEP2 apunta a r > 0,1) entonces Planck los observará. Pero si r < 0,05 será incapaz.
Y por otro lado, la colaboración entre Planck y BICEP2 para tratar de estimar (estadísticamente) la contribución del polvo galáctico en la ventana de BICEP2 con objeto de limpiar la señal y desvelar los modos B primordiales. El proceso es muy complicado por las grandes diferencias en sensibilidad entre Planck y BICEP2. Si la contribución del polvo a la señal de BICEP2 es menor de un 80%, se podría limpiar desvelando modos B en la señal de BICEP2 (con r < 0,1). Pero si la contribución del polvo es mayor, la limpieza será casi imposible.
Para acabar, sobre BICEP2, la verdad, Planck va a poder aportar bastante poco. En primavera se espera la publicación de los datos de Keck (5 detectores tipo BICEP2, que durante un año han funcionado a 2 frecuencias). Lo más relevante sobre BICEP2 vendrá gracias a Keck. Pero nadie espera que sea concluyente. Seguramente tendremos que esperar a los datos de BICEP3 en 2017.
#10 el tiempo de ejecución del memalgoritmo es polinomial (lineal, de hecho). Lo que sería no polinomial es el tiempo de simularlo en un ordenador convencional.
El problema de la memcomputación es que no es escalable. La razón es que hay que distinguir entre un número exponencial de frecuencias en un intervalo finito del espectro. Obviamente hay límites físicos que impiden escalar el sistema más allá de los "problemas de juguete". Se puede imaginar un sistema que amplifique la diferencia entre las frecuencias cercanas de interés, pero no está demostrado que esta amplificación se pueda realizar con un número polinomial de recursos.
#11 cuidado, no se trata de una computación paralela con un número exponencial de procesadores. El número de procesadores crece linealmente. Lo que crece de forma exponencial es el número de estados (frecuencias en este caso) en cada procesador.
#11 dice "no es P igual a NP según la definición original de ambas clases". Obviamente dicha frase la has copiado del primer párrafo de mi artículo. ¿"titulares gancho"? Sí, lo acepto, está copiado del titular del artículo técnico...
#5 se puede simular en un ordenador normal (igual que un ordenador cuántico también se puede simular), pero se pierde la eficiencia del no determinismo y se pierde la "magia" memcomputacional (ya no hay prueba de que NP=P).
#1 hoy todos los físicos pensamos que el modelo estándar es un desscripción "efectiva" de la realidad, es decir, no es la teoría definitiva, porque hay muchas cosas que sabemos que no explica. Por tanto, la realidad es más complicada que la descrita por el modelo estándar. La teoría definitiva podría ser más sencilla, pero predecir más cosas, o ser más complicada, no la conocemos aún.