Un repaso a la Mecánica Cuántica para entender el Premio Nobel de Física 2012

El premio Nobel de Física 2012 se concedió la semana pasada a Serge Haroche y David J. Wineland por "los innovadores métodos experimentales que permiten la medición y manipulación de sistemas cuánticos individuales"... "

El premio Nobel de Física 2012 se concedió la semana pasada a Serge Haroche y David J. Wineland por «los innovadores métodos experimentales que permiten la medición y manipulación de sistemas cuánticos individuales«… «inventado y desarrollado de manera independiente métodos para medir y manipular partículas individuales, preservando su naturaleza cuántica, con técnicas que antes se consideraban inalcanzables«.

Creo que el párrafo anterior debe parecer un sinsentido a una buena parte de los lectores, y es que cuando la Física Cuántica aparece, la tendencia general es a no hacer ni siquiera el intento de indagar qué hay detrás. No será una humilde entrada de blog la que solucionará este defecto, pero al menos voy a intentar poner mi grano de arena para que el lector más intrépido se acerque unos pasos al que probablemente sea el mayor logro intelectual del ser humano, la Física Cuántica, y de paso comprenda algo de este premio Nobel tan estrechamente relacionado con esta teoría, o más concretamente con la Óptica Cuántica.

Apuntes históricos

La primera semilla de la Mecánica Cuántica fue inconscientemente puesta por Max Planck en el año 1900, cuando formuló la hipótesis de que la energía de la radiación electromagnética no era una variable continua, sino una variable discreta, concretamente igual a un numero de entero de veces la frecuencia de la onda multiplicada por un determinada valor, h, que terminaría llamándose la constante de Planck. En realidad era un trapicheo matemático para que cuadrara el espectro energético medido de un cuerpo radiante, con el predicho por sus cálculos. Nadie sospechaba en aquel entonces el papel clave que tendría esta asunción para la Física del siglo XX.

Albert Einstein dio también un paso fundamental en el avance del conocimiento de la materia con su famoso trabajo sobre el efecto fotoeléctrico de 1905 («Un punto de vista heurístico sobre la producción y transformación de la luz» —>), un fenómeno que ocurre cuando al hacer incidir una determinada radiación electromagnética sobre un metal se produce en este una emisión de electrones. Einstein utilizó la relación cuantificada de Planck para formular la descripción teórica de este efecto.

La dualidad Onda Partícula, introducida sin pena ni gloria por el físico francés Louis de Broglie en su tesis doctoral (1924), postulaba que la materia presentaba simultáneamente un comportamiento que correspondía a ondas o a corpúsculos, y que éste se manifestaba de una u otra forma en función del experimento. Esta hipótesis se vería confirmada experimentalmente tres años después, cuando diversos experimentos de doble rendija de Young (entrada Wiki) con electrones, presentaron un patrón de difracción como el de la animación mostrada arriba. Es decir qué las partículas sufrían un fenómeno que es característico y perfectamente estudiado en las ondas, pero que es muy difícil de imaginar en corpúsculos, y no digamos ya en objetos macroscópicos.

Muchos científicos fueron poniendo más ladrillos en la construcción de la teoría durante el primer tercio del siglo XX, RutherfordPoincaré, BohrSommerfeld, Compton, Bose, Pauli, Born, FermiDirac… pero quizá mención especial merezcan dos físicos por sus aportaciones esenciales. El primero es Erwin Schrödinger que publicaba en 1926 la Ecuación de Onda, el equivalente cuántico a la ecuación del movimiento (2ª Ley de Newton) de la Mecánica Clásica, cuya solución representa la evolución temporal de los estados cuánticos que están ahora ya definidos como una función de onda.

El segundo es Werner Heisenberg que publicaba en 1927 el siguiente gran hito de la Física Cuántica, el Principio de Incertidumbre de Heisenberg, que establece que la precisión con que se puede obtener el valor de determinadas variables por pares, queda limitada no ya por consideraciones instrumentales si no más bien por un principio intrínseco que acota lo que podemos llegar a saber en un determinado experimento.

Una primera aproximación a este principio nos lleva a pensar que hablamos de precisión de la medida, y de la imposibilidad de evitar un grado de error debido a la perturbación que se provoca al realizar la propia observación durante el experimento. Si medimos «exactamente» la posición de un electrón es porque lo hemos «visto», por tanto el sistema ya es distinto (ha emitido un fotón), y ya no podemos calcular cuál es su dirección a partir de ese instante (ya es otro sistema), o sea, hemos sido precisos midiendo la posición (Δx) a costa de que tendremos un gran error en el cálculo de su trayectoria (Δp).

Pero al examinar detenidamente el concepto en el marco de la dualidad onda-corpúsculo se ve que esta limitación es intrínseca debido al carácter ondulatorio de la materia. Y esta es la verdadera revolución de la Mecánica Cuántica, es un punto y final al determinismo científico (y por tanto también al determinismo filosófico), que invariablemente nos lleva a considerar un componente de aleatoriedad en la Naturaleza que nos obliga a hablar de los sistemas en términos de probabilidad, o más apropiadamente en términos de distribuciones de probabilidad.

El resto del siglo XX fue un hervidero teórico y experimental del mundo de la Mecánica Cuántica, a continuación, en modo Twitter, algunos de los momentos más importantes del proceso:

  • 1938.- Isidor Isaac Rabi describe y observa por primera vez la Resonancia Magnética Nuclear.
  • 1942.- Enrico Fermi consigue la primera reacción nuclear de fisión autosostenida (Chicago Pile_1)
  • 1948.- Richard Feynman (entre otros) ponen sobre la mesa una formulación de la Electrodinámica compatible con la Mecánica Cuántica y la Relatividad.
  • 1949.- Freeman Dyson interpreta los diagramas de Feynman más allá de considerarlos un simple método de cálculo, y crea las series de Dyson que resuelven formalmente por iteración la ecuación de Schrödinger dependiente del tiempo.
  • 1957.- John Bardeen, Leon Cooper y J. R. Schrieffer proponen su teoría cuántica BCS de la superconductividad de baja temperatura.
  • 1964.- Murray Gell-Mann y George Zweig proponen de manera independiente el modelo de quarks para los hadrones, los constituyentes fundamentales de la materia quedan divididos en quarks, electrones y neutrinos.
  • 1967.- Steven Weinberg y Abdus Salam presentan un modelo que unifica el electromagnetismo con la fuerza nuclear débil en el hoy llamado Modelo electrodébil.
  • 1977 a 1995 – El quark top es finalmente observado en el Fermilab.
  • (… cronografía completa en Wikipedia aquí)
Consecuencias y paradojas de la Mecánica Cuántica

Lo primero que es importante destacar, es que los efectos de la mecánica cuántica se manifiestan solo a escalas microscópicas (aunque el mundo visible no sería ni parecido sin este comportamiento subyacente), porque la indeterminación para objetos grandes, debido a la pequeñez del valor de la constante de Planck (6.626 x 10 -34), siempre será muchísimo menor que los propios errores experimentales. Por tanto la Mecánica Clásica (y la Electrodinámica) siguen siendo perfectamente válidas en el mundo macroscópico.

Una de las consecuencias de la Mecánica Cuántica se deduce del Principio de Superposición de los sistema lineales, según el cual los efectos producidos por un estímulo en un determinado punto en un instante dado, es la suma de los efectos individuales que produciría una combinación de estímulos cuya resultante fuera el estímulo original. Dado que un sistema cuántico viene definido por una combinación lineal de soluciones de la ecuación de Schrödinger, el Principio de Superposición se aplica «de oficio». Si medimos una determinada variable (un posible estado del sistema) se obtendrá un valor cualquiera según la distribución de probabilidad que le corresponde a ese sistema. No podemos predecir cuál será ese estado, pero una vez que midamos… el estado será el medido y no otro, y si volvemos a medir acto seguido, volveremos obtener ese mismo resultado. Decimos que se ha producido el colapso de la función de onda.

Esta interpretación no es la única que escarba en la intimidad ontológica de la mecánica cuántica, pero es probablemente la mayoritaria, al menos desde el punto de vista académico, y la que se acomoda mejor en las diversas interpretaciones que hoy se manejan (y sus variantes).

Entre todas estas visiones, por su relación con el premio Nobel 2012, vamos a recordar la Interpretación de Copenhage. Esta lectura de la cuántica fue propuesta por Niels Bohr y Werner Heisenberg (y Born, Dirac y otros) fruto de su colaboración en el Niels Bohr Institute a finales de los años veinte del pasado siglo. Centra el foco en el momento de la medida, y considera sin sentido sacar conclusiones sobre el estado del sistema antes de él. Además considera la función de onda una entidad matemática cuyo único propósito es el cálculo de las probabilidades en un determinado experimento. En general considera que el proceso de un experimento tiene tres fases (Physics and Philosophy, The Revolution in Modern Science. Werner Heisenberg):

  1. La transcripción de las condiciones de un experimento en una distribución de probabilidad. Sujeto al Principio de Incertidumbre.
  2. La evolución temporal de esta función. No puede ser descrita en términos clásicos, no hay descripción posible entre las condiciones iniciales y la toma de la primera medida.
  3. El establecimiento de una media por el sistema instrumental. Es el momento en el que pasamos de lo posible a lo concreto.

Dado que esta interpretación abunda en el carácter indeterminista de la Teoría, desde el principio chocó (y de hecho todavía lo hace) con algunos de los grandes pensadores del siglo XX, incluidos algunos de los padres de la Mecánica Cuántica como Einstein, de Broglie, Schrödinger… que poco tardaron en plantear experimentos imaginarios que ponían de relieve las paradojas de esta teoría. Es el caso de la paradoja de Einstein-Podolsky-Rosen (EPR), que hurga en el entralazamiento cuántico, un efecto que predice que sistemas acoplados pero separados espacialmente experimentarán instantáneamente los cambios en una de sus partes, lo cual está en oposición frontal con la Teoría de la Relatividad que postula la velocidad de la luz en el vacío como la máxima velocidad a la que puede transmitirse una perturbación.

Erwin Schrödinger por su parte planteó la más conocida paradoja del gato de Schrödinger, en la cual se describe un experimento con un gato metido en una caja, en el que una sustancia radiactiva acciona un dispositivo que inocula un veneno en la caja en el caso de que se produzca una desintegración, proceso que obedece a las leyes probabilísticas de la Mecánica Cuántica. Por tanto la función de onda del sistema será una combinación de los estados «gato vivo» y «gato muerto», y mientras no abramos la caja (colapso de la función de onda) nada podremos decir de la salud del gato, desde el punto de vista físico-matemático estará literalmente en una combinación dada de estados «vivo» y «muerto».

Parte del trabajo teórico y experimental en Física se ha dirigido a dar respuesta a estas paradojas proponiendo alternativas a la interpretación de Copenhage, algunas como la Teoría de Variables Ocultas están llenas de sentido común (y retoman el determinismo), y otras parecen más propias de la Ciencia Ficción que de la Física, como es el caso de los Universos paralelos. En cualquier caso es un apasionante debate en la misma frontera de la Física y la Filosofía, y todo un ejercicio intelectual el intentar comprender si quiera cuales son las cuestiones que están en liza.

Qué aportan Wineland y Haroche en este embrollo

La academia sueca ha premiado este año dos líneas de investigación experimental, en las que busca (y se consigue) controlar y manipular sistemas cuánticos individuales sin perturbarlos, o controlando la perturbación que viene a ser lo mismo.

En concreto David Wineland recibe el premio por su técnica de manipulación y medida mediante fotones, del estado cuántico de iones y átomos atrapados mediante un campo eléctrico. Básicamente su arte está en «enfriar» con pulsos láser los iones atrapados hasta que alcanzan su nivel mínimo de energía, y entonces sintonizar finamente el haz láser (fotones) para excitar el ion hasta un estado superpuesto en el que coexisten con igual probabilidad el estado fundamental («gato vivo») y el excitado («gato muerto»), lo cual permite estudiar la superposición cuántica que mencionábamos arriba.

Por su parte Serge Haroche recibe el premio por su método, de alguna manera especular del anterior, de medir mediante iones el estado cuántico de fotones atrapados en una cavidad. La técnica se basa en controlar los fotones (microondas en este caso) capturados en una cavidad de espejos superconductores en cuyas paredes rebotan durante una décima de segundo antes de ser absorbidos, tiempo durante el cual su estado cuántico es controlado y medido simultáneamente por átomos de Rydberg individuales que son introducidos en la cavidad de una manera (a una velocidad) que la interacción con el fotón es perfectamente controlada.

Un informe más completo pero sin estridencias nos lo proporciona la misma organización Nobel en inglés en este PDF, y con estridencias en este otro. Ninguno de los dos son estrictamente técnicos y contienen algunos gráficos interesantes que pueden aclarar algo mi sucinta descripción anterior.

¿Y esto para qué sirve? Pues aparte de la contribución al análisis experimental de las paradojas teóricas de las que hablamos antes (sustituyendo el gato por iones y fotones), hay varios campos prácticos en los que estas técnicas suponen un gran avance, como la propia academia exponía en su nota de prensa: en la computación cuántica, y en el desarrollo de relojes atómicos.

En cuanto a los relojes atómicos, el paso del estándar actual basado en la estructura hiperfina del Cesio (—>), a un estándar basado en una pareja de iones en una trampa como la planteada por Wineland, supondría una mejora de dos ordenes de magnitud (100 veces más precisos) que los relojes de Cesio-133. Según el informe de la academia eso significa que un reloj así construido puesto en marcha en el Big Bang, hoy estaría retrasado (o adelantado) un máximo de cinco segundos. Esto será de aplicación inmediata en diferentes estándares del Sistema Internacional que utilizan el tiempo, en Astrofísica,  en radioastronomía, y será una mejora crítica en los Sistemas de Posicionamiento Global.

En cuanto a la Computación Cuántica, que probablemente será el futuro de la computación, solo hace falta fijarse que lo esencial en esta incipiente tecnología es que se sustituyen los bits por Qubits, que en realidad no son otra cosa que estados cuánticos, y que estas son las entidades que se deben manipular y controlar, para de inmediato inferir que el premio nobel de Física 2012 tendrá aplicaciones directas en este campo. Creo que es un tema lo suficientemente interesante como para dedicarle una entrada un día de estos.

Hay una consecuencia negativa en este premio Nobel que no quisiera dejar en el tintero. Se ha entregado en una rama de la Física Cuántica (la Óptica Cuántica), con aplicaciones inmediatas en un campo, la Computación Cuántica, en el que contamos uno de los mayores especialistas a nivel mundial, Juan Ignacio Cirac, el actual director de la División Teórica del Instituto Max-Planck de Óptica Cuántica en Garching, Alemania. En años anteriores había sonado su nombre como firme candidato al premio, así que la concesión este año del nobel en su campo hace presuponer que pasarán unos cuántos años hasta que se vuelva a repetir la misma rama de la Física, y por tanto, salvo sorpresa, España seguirá con el casillero de premios nobel de Física a CERO una buena temporada.

Eclectikus
Eclectikus

Geofísico, analista de Sistemas de Información Geográfica, bloguero. Librepensador.

Quedo a su disposición.

Artículos: 18

5 comentarios

  1. Para los que no entendemos de física difícil se nos hace entender la cuántica. Yo sí tengo libros que lo explican, pero por mucho que lea me quedo igual que estaba. Pero si se merecían el Nóbel pues enhorabuena para ellos.
    Lo que no comprendo es el Nobel de la Paz a la UE, con soldados europeos metidos en guerras apoyando al otro premio de la paz Obama, que nada más recibirlo de cabeza se metió en ellas.

    • El Nobel de la Paz es un asunto meramente político, y por tanto su concesión bastante arbitraria. Xala i Martín hace una crítica bastante rotunda aquí que debería sacar los colores al jurado de la Academia. Aunque sinceramente no creo que la Academia sea sensible a unas críticas con las que cuenta y que asume sin sentimiento de culpa… la política es así. 

      Creo que críticas similares se puede hacer en Literatura y posiblemente en Economía (doctores tiene Desde el Exilio), pero no es el caso del núcleo científico de los premios Nobel, puedes encontrar cierta controversia pero la realidad es que si te coges la lista, todos los que están son, aunque puede lógicamente que no estén todos los que lo deberían estar.

    • Aunque aboorezco tanto de Obama como la de UE te recuerdo que la accion de Churchill se merecia mucho mas el Nobel de la Paz que Chamberlain.

  2. Con el aumento exponencial de la necesidad mundial de capacidad de cálculo, todo paso adelante en la computación cuántica es bienvenido.

Los comentarios están cerrados.