Unos apuntes de física cuántica, I

Publicado el 17 junio 2014 por Rafael García Del Valle @erraticario

[Este es el primero de una serie de textos sobre el tema para la revista The Cult, y estará basada en viejos artículos, por lo que las reminiscencias serán obvias para los asiduos al blog]

Para celebrar la entrada en el siglo XX, el viernes 27 de abril del año de nuestro señor 1900, uno de los más ilustres científicos de la época, el físico y matemático Lord William Thomson, primer barón Kelvin, pronunció un discurso por el que los huesos del lord aún castañetean en las noches de luna llena. Comenzaba así:

The beauty and clearness of the dynamical theory, which asserts heat and light to be modes of motion, is at present obscured by two clouds.

Sin entrar en detalles, las dos oscuras nubes que empañaban el claro y hermoso cielo de la Física eran, una, la imposibilidad de explicar el movimiento de los cuerpos en relación al éter luminoso que se suponía llenaba el Cosmos; y otra, la denominada “catástrofe ultravioleta”, un “pequeño” error del electromagnetismo clásico que atentaba contra el principio de conservación de la energía.

El discurso de Lord Kelvin permanece para la Historia en treinta y cuatro páginas de las Notices of the proceedings at the meetings of the members of the Royal Institution of Great Britain with abstracts of the discourses, a lo largo de las cuales el barón aporta su granito de arena para, como afirma al concluir, ayudar a disipar el celaje que había oscurecido la física durante un cuarto de siglo y devolverle su fulgor.

Ese mismo año de 1900, otro físico, Max Planck, dio con el camino para solucionar el embrollo. Pero, cual pintor que quita la mancha del cuadro emborronándolo todo, hizo que en el bello paisaje positivista de Lord Kelvin ya no se viera ninguna pequeña nube oscura, sino un tenebroso cielo de tormenta. Sin tener ni idea, todavía, de que su criatura la iba a liar parda, Planck acababa de plantar la semilla de una nueva física que se terminaría conociendo como “mecánica cuántica”.

Un monstruo nacido en noche de tormenta que fue arrasando, despacito pero sin pausa, los cimientos de la realidad “clásica”, y cuyos destrozos no han podido, o no han querido, ser evaluados en toda su magnitud por las autoridades del conocimiento. De momento, la escombrera sigue tapada con un provisional tinglado de cartón piedra que, aunque no termina de dar el pego, al menos permite pasear con cierta serenidad y no preocuparse por que un canto se le venga encima al transeúnte satisfecho.

Cuanto de acción

En 1900, Planck descubrió que la energía está empaquetada en unidades indivisibles; es decir, existe una unidad mínima de acción llamada “cuanto” y no se pueden hacer paquetes de energía más pequeños.

Esto quiere decir que la energía no aumenta ni disminuye de manera continua, sino que es siempre múltiplo de un cuanto. A este paquete básico se le denominó constante de Planck y fue el origen de una serie de postulados tan contrarios a lo que la racionalidad humana entiende por pensamiento sano que, cien años después, se sigue sin saber de qué va todo esto.

Poco después de la aparición en escena del cuanto de acción, en 1905, Albert Einstein solucionó muchas de las dudas –algunas nubes negras— sobre el comportamiento de la luz que no podían resolverse en virtud de su naturaleza de onda. Y ello gracias al cuanto: la nueva teoría de Einstein proponía que la luz podía actuar como partícula en ciertos casos; tales partículas eran los fotones, las unidades básicas de energía electromagnética. No obstante, la existencia del fotón no fue aceptada por todos hasta la década de 1920.

Se aceptara o no se aceptara, el lío ya estaba montado. Para seguir el curso de los acontecimientos, primero hemos de remontarnos brevemente a unos años antes, cuando se comprendió que el átomo no era lo que su nombre indica, indivisible: en 1890, para explicar por qué la materia emite radiación, el físico Hendrik A. Lorentz había teorizado sobre la presencia de cargas eléctricas “dentro” de los átomos las cuales, al vibrar, emitían luz. Y si estaban dentro, es que el átomo tenía estructura interna y, por tanto, había más piezas de las que se pensaba hasta ese momento.

En 1911, tras varios intentos por desentrañar dicha estructura, al final se aceptó el modelo propuesto por Rutherford: los electrones, de carga negativa, giraban en torno a un núcleo de carga positiva; entre ellos, todo era espacio vacío. Es decir, el átomo se había convertido en un “sistema planetario”.

Pero había otro problemilla con esto: según el planteamiento, al moverse los electrones, pierden energía, de modo que el núcleo los iría atrayendo hasta provocar su destrucción.

En 1913, Niels Bohr aplicó la constante de Planck a su teoría sobre el átomo de hidrógeno: demostró que la radiación emitida por dicho átomo provocaba variaciones en la órbita de su único electrón, y que tales cambios de energía se producían de acuerdo a múltiplos de la constante de Planck. O sea: al disminuir la energía, el electrón orbitaba más cerca del núcleo; cuando subía la energía, se alejaba.

Bohr, al igual que muchos otros, no terminaba de aceptar la existencia del fotón –no lo haría hasta 1925—, por lo que no pudo explicar lo que luego quedaría claro: que el electrón adquiere y pierde energía absorbiendo y desprendiendo fotones, y que tal es la causa de la luz emitida por un átomo, además del cambio de órbitas de sus electrones.

Además, su modelo sólo funcionaba bien para el átomo de hidrógeno; en cuanto se aplicaba a otros elementos, que tienen más de un electrón en órbita, comenzaban los problemas.

Con todo, el gran logro de Bohr fue que, al aplicar la constante de Planck, había conseguido estabilizar el átomo, al limitar sus estados posibles a múltiplos enteros del cuanto de acción y definir una órbita mínima que impedía su colapso. De momento, algo se había avanzado, así que le dieron el Nobel.

Sin embargo, robar el fuego de los dioses tiene un precio muy alto: de acuerdo al modelo de órbitas, al liberar energía, el electrón se acerca al núcleo, y al absorberlo se aleja a órbitas más externas; y, puesto que las órbitas posibles para el electrón respondían a múltiplos de la constante de Planck, estaban “cuantizadas”: el electrón no se podía mover entre las órbitas, sino que “saltaba” de una a otra sin realizar el trayecto que las separa.

El salto cuántico propuesto por Bohr iba en contra de todo lo conocido hasta entonces y destrozaba el principio que, desde los tiempos de Aristóteles, se dio por hecho natural: “La naturaleza no procede a saltos”. El átomo, definitivamente, ya no podía ser explicado en los términos de la física clásica.

Otra realidad era posible. Pero incompatible con el sentido común…

La no conmutabilidad

Un par de décadas después de que Lord Kelvin mirara al cielo con la esperanza de que dos pequeñas nubes no estroperan los brillantes días de la ciencia, la mente de los terrícolas había llegado a su límite, al menos aparente, incapaz de encontrar imágenes nítidas con que visualizar el mundo.

Tras algunos años de debates inciertos sobre la naturaleza del átomo y de la luz, allá por 1925, Werner Heisenberg, un discípulo de Bohr en el instituto que éste dirigía en Copenhague, decidió que la realidad física sólo podía contemplarse mediante formalismos matemáticos, y que toda representación intuitiva era inútil.

Buena parte de la culpa de esta actitud radical por parte de Heisenberg la tuvo su formación humanista y su interés por los clásicos, como explica Heinz Pagels en El código del universo:

Heisenberg estaba interesado en la filosofía clásica, especialmente en Platón y los atomistas, quienes pensaban en los átomos conceptualmente, no como en algo visible. La mayoría de los físicos intentaban construir dibujos atómicos, pero Heisenberg, como los griegos, creía que era necesario prescindir de los dibujos atómicos, de los electrones que describían círculos de radio definido alrededor del núcleo a manera de pequeños sistemas solares. Heisenberg no pensaba en qué eran los átomos, sino en lo que hacían (sus energías de transición). Siguiendo procedimientos matemáticos, describió las transiciones de energía de los átomos como una formación de números. Aplicando su notable ingenio matemático, encontró reglas que eran obedecidas por estas formaciones numéricas y las empleó para calcular los procesos atómicos.

Se trataba de las matemáticas matriciales, donde, en lugar de por un número, cada elemento es descrito por una estructura de números. Y, consecuentemente, al describir una partícula en términos de matrices, la posición (q) y la cantidad de movimiento (p) de la partícula ya no se expresan con un número simple (q=3, por ejemplo), sino con matrices.

Pero, si alguien no sabe qué es una matriz, que no se preocupe; Heisenberg tampoco lo sabía, aunque se puso las pilas enseguida. Él se había limitado a describir los cambios de energía en el átomo mediante una formación de números; fueron Max Born y Pascual Jordan quienes le hicieron ver lo que había descubierto y, poco después, fue Paul Dirac quien completó la nueva mecánica de matrices y William Pauli quien amplió su rango de aplicaciones. Y todo ello entre 1925 y 1927.

¿Qué puede significar para la interpretación de la naturaleza que las cualidades de una partícula estén descritas por matrices y no mediante números simples? La consecuencia fundamental es que las matrices no cumplen la ley conmutativa: pxq no tiene por qué ser igual a qxp. Es decir, el orden de los factores sí altera el producto.

Si tenemos las variables “posición” y “momento lineal”, ello significa que si medimos una y después la otra, el resultado será diferente del que habríamos obtenido si los hubiéramos medido en el orden inverso; así que, o bien elegimos conocer la posición de una partícula, o bien elegimos conocer su movimiento. Sólo conoceremos con precisión la primera medida que hagamos, siendo la segunda una aproximación probable, pero jamás cierta.

Si la física clásica presumía de poder establecer la posición y el momento de cualquier objeto conociendo sus parámetros de inicio, con la mecánica cuántica el conocimiento del sistema es incompleto por definición. Con Heisenberg había nacido el “principio de incertidumbre”, por el que la imprecisión es inherente a los sistemas cuánticos y no puede desaparecer por naturaleza.

El principio de incertidumbre y sus consecuencias

Si la primera consecuencia del postulado de Heisenberg fue que la imprecisión era un aspecto natural de la realidad, la segunda consecuencia fue que los resultados estadísticos obtenidos no eran tan naturales, sino que se debían a la perturbación que el científico provocaba en el sistema al intentar observarlo.

Todo experimento requiere un sistema externo, un aparato, que interactúe con el sistema sobre el que se experimenta; la interacción más simple es la de un fotón lanzado dentro del sistema para detectar la posición de un electrón; de la interacción entre ambos, surge un resultado. La interacción entre aparato y sistema es una acción invasiva pero, mientras que, en física clásica, el efecto es inapreciable, en la mecánica cuántica esa interacción condiciona el resultado; ello es así porque cualquier fotón (observador) con la energía suficiente para realizar la medición, también tiene la energía suficiente para alterar la partícula observada.

Según explica Ana Rioja, de la Universidad Complutense de Madrid, en su ensayo “La filosofía de la complementariedad”, de ello se establece que la física clásica es una “idealización” que permite hablar de sistemas cerrados, es decir, ajenos a toda interferencia y por tanto susceptibles de ser estudiados con absoluta objetividad, simplemente por una cuestión de perspectiva; el sistema se altera inevitablemente aunque se estima inapreciable para el resultado buscado. Por tanto, no estaríamos ante la pretendida realidad objetiva, sino ante una realidad a la medida del ser humano:

La caracterización del conjunto de los sistemas físicos como sistema cerrado, o sea, como un sistema sin intercambio con nada externo, era absolutamente indispensable a este ideal explicativo, a fin de que la noción de objeto observado pudiera tener un sentido definido, perfectamente independiente del sujeto observador y de sus operaciones de observación y medida. Ahora bien, toda observación de la naturaleza, y con más razón cuando se interponen aparatos de medida, supone una entrada y salida de energía, una interacción entre el objeto y el sujeto con sus medios de observación –entre los que al menos hay que mencionar la luz—, que puede llevar a poner en tela de juicio la noción de sistema observado cerrado, y con ello la fundamental distinción entre sujeto y objeto, así como el criterio mismo de objetividad. En efecto, la descripción objetiva y científica del mundo exige dar cuenta de éste tal cual es, sin interferencia, intervención o perturbación por parte del sujeto que observa.

En tercer lugar, y relacionado con todo ello, el principio de incertidumbre desafiaba el principio clásico de causalidad. El principio de causalidad afirma que todo efecto está precedido por una causa única, lo que sostiene la afirmación de Laplace según la cual es posible determinar el movimiento de cualquier partícula si se conocen con exactitud sus condiciones iniciales de posición, cantidad de movimiento y las fuerzas que actúan en el sistema.

La base de la física clásica es que, si se conoce un estado presente, se puede calcular el estado futuro. El problema, según el postulado de Heisenberg, es que no podemos llegar a conocer jamás ningún presente en términos absolutos como pretendía Laplace; sólo se alcanza a describir un rango de posibilidades para la posición y el momento lineal de la partícula en el futuro, por lo que la linealidad causa-efecto se pierde.

La formulación del principio de incertidumbre fue un duro golpe para el sueño positivista. Como afima David Cassidy, de la Universidad Hofstra de Nueva York y experto en la vida y obra de Werner Heisenberg, en un artículo publicado por la revista Investigación y Ciencia (“Heisenberg, imprecisión y revolución cuántica”, nº 190): “Era la primera vez, desde la revolución científica, que un físico de primera línea proclamaba una limitación al conocimiento científico”.

La realidad dominada por un observador absoluto, sin punto de vista, sin cuerpo, sin situación espacial, era cosa del pasado. Niels Bohr se planteó, a partir de estas ideas, las consecuencias ontológicas del postulado cuántico.

Su base de argumentación era la existencia del cuanto de acción de Planck. Su existencia hace que cualquier proceso atómico sea no sólo indivisible sino discontinuo, a saltos, por lo que el ideal descriptivo debía ser revisado.

Bohr y Heisenberg estaban de acuerdo en que la nueva física impedía construir imágenes espacio-temporales y causales,  y hacía imposible el ideal de objetividad de la ciencia clásica. Por tanto, no podía pensarse en una realidad independiente en el sentido ordinario del término: la realidad es arbitraria, ya que depende de qué objetos pueden interactuar con el elemento observador.

Pero, al mismo tiempo que unos forjaban la mecánica cuántica desde las abstracciones y matrices, otros se negaban a renunciar a la capacidad del ser humano para describir el mundo en términos precisos y visuales.

Lo que las matrices venían a decir era que, si se intenta definir el punto concreto de una partícula, su cantidad de movimiento se vuelve impredecible. Suena raro… y, sin embargo, hay un suceso con el que es posible establecer una analogía en la realidad sensible, y que permitió a Louis de Broglie, primero, y a Edward Schrödinger, después, no tan amigos de lo abstracto como Heisenberg y compañía, confirmar de manera independiente los mismos efectos que se extraían de las matrices.

A saber: cuando una gota cae sobre un estanque, el agua se ve afectada en un punto concreto, pero enseguida las ondas se propagan; no hay movimiento que trazar, es solo que el estanque está revuelto. Hay olas en su superficie…

(Continuará)