lunes, 9 de mayo de 2011

EL PRINCIPIO DE INCERTIDUMBRE



Capítulo 4

EL PRINCIPIO DE
INCERTIDUMBRE

El éxito de las teorías científicas, y en particular el de la teoría de la gravedad de
Newton, llevó al científico francés marqués de Laplace a argumentar, a principios del
siglo xix, que el universo era completamente determinista. Laplace sugirió que debía
existir un conjunto de leyes científicas que nos permitirían predecir todo lo que
sucediera en el universo, con tal de que conociéramos el estado completo del
universo en un instante de tiempo. Por ejemplo, si supiéramos las posiciones y
velocidades del Sol y de los planetas en un determinado momento, podríamos usar
entonces las leyes de Newton para calcular el estado del sistema solar en cualquier
otro instante. El determinismo parece bastante obvio en este caso, pero Laplace fue
más lejos hasta suponer que había leyes similares gobernando todos los fenómenos,
incluido el comportamiento humano.

La doctrina del determinismo científico fue ampliamente criticada por diversos
sectores, que pensaban que infringía la libertad divina de intervenir en el mundo,
pero, a pesar de ello, constituyó el paradigma de la ciencia hasta los primeros años
de nuestro siglo. Una de las primeras indicaciones de que esta creencia habría de
ser abandonada llegó cuando los cálculos de los científicos británicos lord Rayleigh y
sir James Jeans sugirieron que un objeto o cuerpo caliente, tal como una estrella,
debería irradiar energía a un ritmo infinito. De acuerdo con las leyes en las que se
creía en aquel tiempo, un cuerpo caliente tendría que emitir ondas electromagnéticas
(tales como ondas de radio, luz visible o rayos X) con igual intensidad a todas las
frecuencias. Por ejemplo, un cuerpo caliente debería irradiar la misma cantidad de
energía, tanto en ondas con frecuencias comprendidas entre uno y dos billones de
ciclos por segundo, como en ondas con frecuencias comprendidas entre dos y tres
billones de ciclos por segundo. Dado que el número de ciclos por segundo es
ilimitado, esto significaría entonces que la energía total irradiada sería infinita.

Para evitar este resultado, obviamente ridículo, el científico alemán Max Planck
sugirió en 1900 que la luz, los rayos X y otros tipos de ondas no podían ser emitidos
en cantidades arbitrarias, sino sólo en ciertos paquetes que él llamó «cuantos».

Además, cada uno de ellos poseía una cierta cantidad de energía que era tanto
mayor cuanto más alta fuera la frecuencia de las ondas, de tal forma que para
frecuencias suficientemente altas la emisión de un único cuanto requeriría más
energía de la que se podía obtener. Así la radiación de altas frecuencias se
reduciría, y el ritmo con el que el cuerpo perdía energía sería, por lo tanto, finito.

La hipótesis cuántica explicó muy bien la emisión de radiación por cuerpos calientes,
pero sus aplicaciones acerca del determinismo no fueron comprendidas hasta 1926,
cuando otro científico alemán, Werner Heisenberg, formuló su famoso principio de
incertidumbre. Para poder predecir la posición y la velocidad futuras de una
partícula, hay que ser capaz de medir con precisión su posición y velocidad actuales.

El modo obvio de hacerlo es iluminando con luz la partícula. Algunas de las ondas
luminosas serán dispersadas por la partícula, lo que indicará su posición. Sin
embargo, uno no podrá ser capaz de determinar la posición de la partícula con
mayor precisión que la distancia entre dos crestas consecutivas de la onda luminosa,
por lo que se necesita utilizar luz de muy corta longitud de onda para poder medir la
posición de la partícula con precisión. Pero, según la hipótesis de Planck, no se
puede usar una cantidad arbitrariamente pequeña de luz; se tiene que usar como
mínimo un cuanto de luz. Este cuanto perturbará la partícula, cambiando su
velocidad en una cantidad que no puede ser predicha. Además, cuanto con mayor
precisión se mida la posición, menor habrá de ser la longitud de onda de la luz que
se necesite y, por lo tanto, mayor será la energía del cuanto que se haya de usar. Así
la velocidad de la partícula resultará fuertemente perturbada. En otras palabras,
cuanto con mayor precisión se trate de medir la posición de la partícula, con menor
exactitud se podrá medir su velocidad, y viceversa. Heisenberg demostró que la
incertidumbre en la posición de la partícula, multiplicada por la incertidumbre en su
velocidad y por la masa de la partícula, nunca puede ser más pequeña que una
cierta cantidad, que se conoce como constante de Planck. Además, este límite no
depende de la forma en que uno trata de medir la posición o la velocidad de la
partícula, o del tipo de partícula: el principio de incertidumbre de Heisenberg es una
propiedad fundamental, ineludible, del mundo.

El principio de incertidumbre tiene profundas aplicaciones sobre el modo que
tenemos de ver el mundo. Incluso más de cincuenta años después, éstas no han
sido totalmente apreciadas por muchos filósofos, y aún son objeto de mucha
controversia. El principio de incertidumbre marcó el final del sueño de Laplace de
una teoría de la ciencia, un modelo del universo que sería totalmente determinista:
ciertamente, ¡no se pueden predecir los acontecimientos futuros con exactitud si ni
siquiera se puede medir el estado presente del universo de forma precisa! Aún
podríamos suponer que existe un conjunto de leyes que determina completamente
los acontecimientos para algún ser sobrenatural, que podría observar el estado
presente del universo sin perturbarle. Sin embargo, tales modelos del universo no
son de demasiado interés para nosotros, ordinarios mortales. Parece mejor
emplear el principio de economía conocido como «cuchilla de Occam» y eliminar
todos los elementos de la teoría que no puedan ser observados. Esta aproximación
llevó en 1920 a Heisenberg, Erwin Schrijdinger y Paul Dirae a reformular la mecánica
con una nueva teoría llamada mecánica cuántica, basada en el principio de
incertidumbre. En esta teoría las partículas ya no poseen posiciones y velocidades
definidas por separado, pues éstas no podrían ser observadas. En vez de ello, las
partículas tienen un estado cuántico, que es una combinación de posición y
velocidad.

En general, la mecánica cuántica no predice un único resultado de cada
observación. En su lugar, predice un cierto número de resultados posibles y nos da
las probabilidades de cada uno de ellos. Es decir, si se realizara la misma medida
sobre un gran número de sistemas similares, con las mismas condiciones de partida
en cada uno de ellos, se encontraría que el resultado de la medida sería A un cierto
número de veces, B otro número diferente de veces, y así sucesivamente. Se podría
predecir el número aproximado de veces que se obtendría el resultado A o el B, pero
no se podría predecir el resultado especifico de una medida concreta. Así pues, la
mecánica cuántica introduce un elemento inevitable de incapacidad de predicción,
una aleatoriedad en la ciencia. Einstein se opuso fuertemente a ello, a pesar del
importante papel que él mismo había jugado en el desarrollo de estas ideas.

Einstein recibió el premio Nobel por su contribución a la teoría cuántica. No
obstante, Einstein nunca aceptó que el universo estuviera gobernado por el azar.

Sus ideas al respecto están resumidas en su famosa frase «Dios no juega a los
dados». La mayoría del resto de los científicos, sin embargo, aceptaron sin
problemas la mecánica cuántica porque estaba perfectamente de acuerdo con los
experimentos. Verdaderamente, ha sido una teoría con un éxito sobresaliente, y en
ella se basan casi toda la ciencia y la tecnología modernas. Gobierna el
comportamiento de los transistores y de los circuitos integrados, que son los
componentes esenciales de los aparatos electrónicos, tales como televisores y
ordenadores, y también es la base de la química y de la biología modernas. Las
únicas áreas de las ciencias físicas en las que la mecánica cuántica aún no ha sido
adecuadamente incorporada son las de la gravedad y la estructura a gran escala del
universo.

Aunque la luz está formada por ondas, la hipótesis de los cuantos de Planck nos dice
que en algunos aspectos se comporta como si estuviera compuesta por partículas:
sólo puede ser emitida o absorbida en paquetes o cuantos. Igualmente, el principio
de incertidumbre de Heisenberg implica que las partículas se comportan en algunos
aspectos como ondas: no tienen una posición bien definida, sino que están
«esparcidas» con una cierta distribución de probabilidad. La teoría de la mecánica
cuántica está basada en una descripción matemática completamente nueva, que ya
no describe al mundo real en términos de partículas y ondas; sólo las observaciones
del mundo pueden ser descritas en esos términos. Existe así, por tanto, una
dualidad entre ondas y partículas en la mecánica cuántica: para algunos fines es útil
pensar en las partículas como ondas, mientras que para otros es mejor pensar en las
ondas como partículas. Una consecuencia importante de lo anterior, es que se
puede observar el fenómeno llamado de interferencia entre dos conjuntos de ondas o
de partículas. Es decir, las crestas de uno de los conjuntos de ondas pueden
coincidir con los valles del otro conjunto. En este caso los dos conjuntos de ondas se
cancelan mutuamente, en vez de sumarse formando una onda más intensa, como se
podría esperar (figura 4.1). Un ejemplo familiar de interferencia en el caso de la luz lo
constituyen los colores que con frecuencia aparecen en las pompas de jabón. Éstos
están causados por la reflexión de la luz en las dos caras de la delgada capa de
agua que forma la pompa. La luz blanca está compuesta por ondas luminosas de
todas las longitudes de ondas o, lo que es lo mismo, de todos los colores. Para
ciertas longitudes de onda, las crestas de las ondas reflejadas en una cara de la
pompa de jabón coinciden con los valles de la onda reflejada en la otra cara. Los
colores correspondientes a dichas longitudes de onda están ausentes en la luz
reflejada, que por lo tanto se muestra coloreada.



Figura 4:1

La interferencia también puede producirse con partículas, debido a la dualidad
introducida por la mecánica cuántica. Un ejemplo famoso es el experimento llamado
de las dos rendijas (figura 4.2). Consideremos una fina pared con dos rendijas
paralelas. En un lado de la pared se coloca una fuente luminosa de un determinado
color, es decir, de una longitud de onda particular. La mayor parte de la luz chocará
contra la pared, pero una pequeña cantidad atravesará las rendijas. Supongamos,
entonces, que se sitúa una pantalla en el lado opuesto, respecto de la pared, de la
fuente luminosa. Cualquier punto de la pantalla recibirá luz de las dos rendijas. Sin
embargo, la distancia que tiene que viajar la luz desde la fuente a la pantalla,
atravesando cada una de las rendijas, será, en general, diferente. Esto significará
que las ondas provenientes de las dos rendijas no estarán en fase entre sí cuando
lleguen a la pantalla: en algunos lugares las ondas se cancelarán entre sí, y en otros
se reforzarán mutuamente. El resultado es un característico diagrama de franjas
luminosas y oscuras.




Figura 4:2
Lo más notable es que se obtiene exactamente el mismo tipo de franjas si se
reemplaza la fuente luminosa por una fuente de partículas, tales como electrones, con
la misma velocidad (lo que significa que las ondas correspondientes poseen una
única longitud de onda). Ello resulta muy peculiar porque, si sólo se tiene una
rendija, no se obtienen franjas, sino simplemente una distribución uniforme de
electrones a lo largo y ancho de la pantalla. Cabría pensar, por lo tanto, que la
apertura de la otra rendija simplemente aumentaría el número de electrones que
chocan en cada punto de la pantalla, pero, debido a la interferencia, este número
realmente disminuye en algunos lugares. Si los electrones se envían a través de las
rendijas de uno en uno, se esperaría que cada electrón pasara, o a través de una
rendija, o a través de la otra, de forma que se comportaría justo igual a como si la
rendija por la que pasó fuera la única que existiese, produciendo una distribución
uniforme en la pantalla. En la realidad, sin embargo, aunque los electrones se envíen
de uno en uno, las franjas siguen apareciendo. Así pues, ¡cada electrón deber pasar
a través de las dos rendijas al mismo tiempo!

El fenómeno de la interferencia entre partículas ha sido crucial para la comprensión
de la estructura de los átomos, las unidades básicas de la química y de la biología, y
los ladrillos a partir de los cuales nosotros, y todas las cosas a nuestro alrededor,
estamos formados. Al principio de este siglo se creyó que los átomos eran bastante
parecidos a los planetas girando alrededor del Sol, con los electrones (partículas de
electricidad negativa) girando alrededor del núcleo central, que posee electricidad
positiva. Se supuso que la atracción entre la electricidad positiva y la negativa
mantendría a los electrones en sus órbitas, de la misma manera que la atracción
gravitatoria entre el Sol y los planetas mantiene a éstos en sus órbitas. El problema
con este modelo residía en que las leyes de la mecánica y la electricidad predecían,
antes de que existiera la mecánica cuántica, que los electrones perderían energía y
caerían girando en espiral, hasta que colisionaran con el núcleo. Esto implicaría que
el átomo, y en realidad toda la materia, debería colapsarse rápidamente a un estado
de muy alta densidad. Una solución parcial a este problema la encontró el científico
danés Niels Bohr en 1913. Sugirió que quizás los electrones no eran capaces de
girar a cualquier distancia del núcleo central, sino sólo a ciertas distancias
especificas. Si también se supusiera que sólo uno o dos electrones podían orbitar a
cada una de estas distancias, se resolvería el problema del colapso del átomo,
porque los electrones no podrían caer en espiral más allá de lo necesario, para llenar
las órbitas correspondientes a las menores distancias y energías.

Este modelo explicó bastante bien la estructura del átomo más simple, el hidrógeno,
que sólo tiene un electrón girando alrededor del núcleo. Pero no estaba claro cómo
se debería extender la teoría a átomos más complicados. Además, la idea de un
conjunto limitado de órbitas permitidas parecía muy arbitraria. La nueva teoría de la
mecánica cuántica resolvió esta dificultad. Reveló que un electrón girando alrededor
del núcleo podría imaginarse como una onda, con una longitud de onda que
dependía de su velocidad. Existirían ciertas órbitas cuya longitud correspondería a
un número entero (es decir, un número no fraccionario) de longitudes de onda del
electrón. Para estas órbitas las crestas de las ondas estarían en la misma posición
en cada giro, de manera que las ondas se sumarían: estas órbitas corresponderían a
las órbitas permitidas de Bohr. Por el contrario, para órbitas cuyas longitudes no
fueran un número entero de longitudes de onda, cada cresta de la onda sería
finalmente cancelada por un valle, cuando el electrón pasara de nuevo; estas órbitas
no estarían permitidas.

Un modo interesante de visualizar la dualidad onda-partícula es a través del método
conocido como suma sobre historias posibles, inventado por el científico
norteamericano Richard Feynman. En esta aproximación, la partícula se supone que
no sigue una única historia o camino en el espacio-tiempo, como haría en una teoría
clásica, en el sentido de no cuántica. En vez de esto, se supone que la partícula va
de A a B a través de todos los caminos posibles. A cada camino se le asocia un par
de números: uno representa el tamaño de una onda y el otro representa la posición
en el ciclo (es decir, si se trata de una cresta o de un valle, por ejemplo). La
probabilidad de ir de A a B se encuentra sumando las ondas asociadas a todos los
caminos posibles. Si se compara un conjunto de caminos cercanos, en el caso
general, las fases o posiciones en el ciclo diferirán enormemente. Esto significa que
las ondas asociadas con estos caminos se cancelarán entre sí casi exactamente.
Sin embargo, para algunos conjuntos de caminos cercanos, las fases no variarán
mucho de uno a otro; las ondas de estos caminos no se cancelarán. Dichos caminos
corresponden a las órbitas permitidas de Bohr.

Con estas ideas, puestas en forma matemática concreta, fue relativamente sencillo
calcular las órbitas permitidas de átomos complejos e incluso de moléculas, que son
conjuntos de átomos unidos por electrones, en órbitas que giran alrededor de más
de un núcleo. Ya que la estructura de las moléculas, junto con las reacciones entre
ellas, son el fundamento de toda la química y la biología, la mecánica cuántica nos
permite, en principio, predecir casi todos los fenómenos a nuestro alrededor, dentro
de los límites impuestos por el principio de incertidumbre. (En la práctica, sin
embargo, los cálculos que se requieren para sistemas que contengan a más de unos
pocos electrones son tan complicados que no pueden realizarse.)

La teoría de la relatividad general de Einstein parece gobernar la estructura a gran
escala del universo. Es lo que se llama una teoría clásica, es decir, no tiene en
cuenta el principio de incertidumbre de la mecánica cuántica, como debería hacer
para ser consistente con otras teorías. La razón por la que esto no conduce a
ninguna discrepancia con la observación es que todos los campos gravitatorios, que
normalmente experimentamos, son muy débiles. Sin embargo, los teoremas sobre
las singularidades, discutidos anteriormente, indican que el campo gravitatorio
deberá ser muy intenso en, como mínimo, dos situaciones: los agujeros negros y el
big bang. En campos así de intensos, los efectos de la mecánica cuántica tendrán
que ser importantes. Así, en cierto sentido, la relatividad general clásica, al predecir
puntos de densidad infinita, predice su propia caída, igual que la mecánica clásica
(es decir, no cuántica) predijo su caída, al sugerir que los átomos deberían
colapsarse hasta alcanzar una densidad infinita. Aún no tenemos una teoría
consistente completa que unifique la relatividad general y la mecánica cuántica, pero
sí que conocemos algunas de las características que debe poseer. Las
consecuencias que éstas tendrían para los agujeros negros y el big bang se
describirán en capítulos posteriores. Por el momento, sin embargo, volvamos a los
intentos recientes de ensamblar las teorías parciales de las otras fuerzas de la
naturaleza en una única teoría cuántica unificada

Historia del Tiempo: Del Big Bang a los Agujeros Negros Stephen Hawking

* * *

No hay comentarios:

Publicar un comentario