Del átomo al Higgs V: El nacimiento de la idea de las cuatro interacciones fundamentales

Por debajo de la escala atómica

El objetivo de la Física es, por supuesto, entender el mundo tal como es. Por ello, una vez aprendido que los átomos no son el último nivel, sino que tienen constituyentes, debemos preguntarnos por las sorpresas que nos aguardan cuando nos adentramos por debajo del nivel atómico. Aquí la pregunta ingenua es: ¿son los electrones, protones y neutrones partículas realmente elementales, o están a su vez compuestas de otras partículas más elementales?

Hay algo que conviene aquí aclarar: el uso del término elemental que los físicos empleamos es completamente equívoco si se interpreta literalmente. Aquí elemental no significa constituyente último en ningún sentido filosófico ni mucho menos absoluto. En todo caso, debe sobreentenderse como referido a una escala de energías: los átomos son sistemas compuestos, que se podrían ver como elementales (permanentes, indivisibles, etc.) mientras las energías que podamos intercambiar con ellos no sean suficientes para ionizarlos o disgregarlos; esto es lo que ocurre en nuestra vida cotidiana. En situaciones en las que las transferencias de energía y/o momento sean mucho mayores, que en la Tierra solamente se dan artificialmente en los laboratorios, pero que en la naturaleza se dan en otras situaciones (en el interior de algunas estrellas) o se han dado (en las etapas iniciales de la evolución del Universo) se comprueba que los átomos no son realmente “indivisibles”: son sistemas compuestos formados por otros constituyentes más pequeños que pueden o podrían separarse.

Indicamos antes que se debe a Bohr un modelo descriptivo del átomo, que no era resultado de ninguna teoría que merezca tal nombre sino que en cierto modo la anunciaba; se cumplen de él ahora 100 años. Y hace 90 años comenzamos a entrever que la descripción correcta de la Naturaleza es la que nos ofrece la entonces naciente Mecánica Cuántica.

Inicialmente era una teoría que trataba de describir correctamente la estructura atómica, pero enseguida quedó claro que realmente la Cuántica era mucho más: creada solamente para entender el átomo, ha resultado válida, sin ningún cambio fundamental en su estructura básica, para entender los núcleos, cinco órdenes de magnitud en tamaño menores que los átomos y las interacciones que ocurren en escalas casi 10 órdenes de magnitud menor, como las que se dan actualmente en el LHC.

Y las mismas ideas cuánticas proporcionan la base sobre la que se apoya toda la física moderna de la Materia Condensada, incluso en algunas de sus manifestaciones macroscópicas, como la superfluidez o la superconductividad. Lo cual, visto desde ahora, es notabilísmo; podríamos resumirlo diciendo que la Cuántica no es ella misma una teoría sino un auténtico marco conceptual.

La Naturaleza se comporta en algunas circunstancias de una manera que para nuestra experiencia cotidiana resulta ser realmente extraña e inesperada. Y hasta donde sabemos, ese comportamiento es precisamente el que el marco conceptual de la Mecánica Cuántica predice y describe. A veces esas predicciones son tan extrañas, que incluso después de haberse impuesto como una teoría correcta, ya entrada la década de 1930, a alguna de tales predicciones apenas se les prestó atención, considerándolas como una curiosidad exótica que solo interesaba a los teóricos puros, aquellos que según el cliché estereotipado están casi fuera del mundo real.

Pero la realidad es tozuda, y aquellas predicciones han devenido en herramientas novedosas. Un buen ejemplo son los estados entrelazados analizados por Schrödinger y utilizados por Einstein en el argumento Einstein-Podolski-Rosen sobre la incompletitud de la Mecánica Cuántica; estos estados entrelazados son ahora esenciales para la computación cuántica.

Otro ejemplo son los llamados “gatos de Schrödinger”, que son una superposición cuántica de dos estados distinguibles macroscópicamente. Cuando estudió por primera vez esos estados, el propio Schrödinger no creyo que estas superposiciones pudieran darse en sistemas “macroscópicos” (incluso escribió que tal cosa sería absurda), pero hoy en día es posible experimentar con un solo átomo aislado que se encuentra en estados de ese tipo gracias entre otros al trabajo por el cual Haroche y Wineland han recibido el premio Nobel en 2012.

Realmente, la posibilidad de experimentar a ese nivel con un sólo átomo es algo con lo que los creadores de la Mecánica Cuántica seguramente no pudieron ni soñar en sus especulaciones más atrevidas, y esta posibilidad nos ha dado el privilegio de comprobar hasta qué punto la Teoría Cuántica describe correctamente el mundo real.

El nacimiento de la idea de las interacciones fundamentales

A principios del siglo XX, las interacciones fundamentales que se conocían eran exclusivamente la gravitación y el electromagnetismo. La primera es importante a gran escala, y es la responsable de los movimientos de los planetas en el sistema Solar, de las estrellas en la galaxia y en último término de la estructura del universo a gran escala. Pero en la escala atómica, entre los componentes reales —esto es, los núcleos y electrones que forman los átomos— la interacción gravitatoria es ridículamente débil cuando se la compara con la electromagnética. De manera que al estudiar la estructura de los átomos, es suficiente centrarse en las interacciones electromagnéticas entre estos constituyentes. Este había sido ya el espíritu de los modelos de interacción entre materia y radiación basados en la mecánica clásica y en la electrodinámica desarrollados por Lorentz en torno a 1900, en un momento en el que aún no se disponía de ningún modelo atómico detallado.

Los éxitos iniciales obtenidos por la Mecánica Cuántica, al explicar en la década de los 1920 la estructura y estabilidad de los átomos —de los que hemos hablado en dos posts anteriores de esta serie— no hicieron sino asentar la idea de que para entender el mundo atómico en el contexto de la Mecánica Cuántica, el electromagnetismo era la (única) interacción relevante.

Siempre, claro está, que nos resignemos a ver el núcleo atómico como una caja negra a la que no busquemos explicación. Porque en cuanto intentamos descender desde la escala atómica a la nuclear, que sabemos constituida por protones y neutrones, las fuerzas electromagnéticas por sí solas resultan claramente insuficientes para explicar la estructura y la estabilidad de los núcleos u otros fenómenos como la radiactividad beta. Las dos dificultades básicas que se habían planteado hacia 1900 para entender los átomos reaparecen pues en 1930, transformadas, para entender los núcleos. Esto había ido emergiendo en esas tres décadas y a principios de los 1930 estaba totalmente claro.

En cuanto a la estructura y estabilidad de los núcleos, el problema es: los núcleos son una agrupación de protones y neutrones, en un espacio muy reducido, de tamaño del orden entre 10-15m para los núcleos de los elementos ligeros y 10-14m para los pesados. Una imagen para mejor apreciar estos valores: yuxtapuestos “en fila”, en un centímetro de longitud “cabrían” unos cien millones de átomos de hidrógeno. Pues bien, en el diámetro de un átomo de hidrógeno “cabrían” unos cien mil de sus núcleos yuxtapuestos igualmente en fila.

La fuerza electromagnética entre protones es de repulsión ya que todos los protones tienen cargas eléctricas del mismo signo. Dado que el núcleo atómico es muy pequeño, las fuerzas electrostáticas de repulsión entre los protones han de ser inmensas. Item más, las relaciones de Heisenberg implican que los protones y neutrones, confinados en ese pequeño espacio que la observación sugiere para el núcleo, debieran tener una dispersión muy grande en sus momentos, lo que implicaría unas energías cinéticas muy grandes; por decirlo visualmente, dentro del núcleo los protones y neutrones deben “moverse” en regímenes relativistas, esto es, a “velocidades” comparables, aunque necesariamente menores, que la velocidad c. Esto es algo drásticamente diferente de lo que ocurre con los electrones en el átomo, cuyo “movimiento”, a velocidades del orden de un 1 por ciento de c cae en un régimen que bien podría llamarse “apenas relativista”. Y por si fuera poco, está el principio de Pauli, que aplicado a los protones y a los neutrones que son fermiones, implica una impresionante fuerza repulsiva cuando todas esas partículas se intenten comprimir en un espacio menor que el que la Naturaleza les adjudicaría naturalmente.

Pero el hecho observacional es que los núcleos atómicos son básicamente estables, aunque las mínimas excepciones conocidas a esta estabilidad, los isótopos naturalmente radiactivos, nos dan información que bien interpretada es muy relevante. La pregunta es: ¿qué otra fuerza predomina sobre la repulsión electrostática y sobre los otros efectos mencionados y mantiene al núcleo unido como un todo, permitiendo en algunos casos particulares procesos como la desintegración radioactiva? Recordemos que el neutrón se descubrió en 1932, aunque por argumentos relacionados con el carácter bosónico o fermiónico de los diferentes núcleos se le esperaba desde unos años antes.

A principios de los 1930 se postuló que entre los nucleones (nombre colectivo para protones y neutrones) debería existir una fuerza atractiva, de origen no electromagnético y mucho más fuerte que la repulsión electrostática entre los protones. A esta fuerza, con notable derroche de imaginación :-), se la denominó fuerza o interacción nuclear fuerte; fueron necesarios casi 50 años hasta que se dispuso de una teoría consistente de esta interacción, que hoy se conoce con el nombre de cromodinámica cuántica, y lograrlo fue una carrera llena de obstáculos.

Entender la radioactividad planteaba otras dificultades. Tras su descubrimiento por Becquerel en 1896, los primeros estudios encontraron tres tipos diferentes de emisiones por un átomo radioactivo, que se bautizaron con los nombres de radiación \alpha, \beta y \gamma. La radiación beta se identificó enseguida con electrones emitidos por parte de los átomos radiactivos. A primera vista que un átomo emita electrones no debiera sorprender demasiado …. hasta que en 1927 Ellis y Wooster confirmaron que los electrones de la desintegración beta exhibían un espectro continuo de energía, y de ello se concluyó, sin asomo de duda, que procedían del núcleo, donde no hay electrones. Esto fue intrigante, pero en poco tiempo surgió la idea de que en el interior del núcleo un neutrón podía transformarse en un protón, emitiendo un electrón.

Sin embargo, al realizar los cálculos, ese proceso era totalmente incompatible con la exigencia de conservación de energía y momento lineal. La situación era tan extrema que por un tiempo Bohr estuvo dispuesto a renunciar a la conservación detallada de energía y momento en la desintegración beta, reemplazándola por una conservación simplemente a nivel estadístico. Pero Pauli propuso otra solución, que es la que creemos correcta: mantener el principio de conservación estricta de energía-momento, pero suponer que el electrón beta emitido debería necesariamente estar acompañado por una nueva fantasmagórica partícula, sin carga eléctrica y de masa muy pequeña o incluso posiblemente nula, hoy llamada neutrino. Al tomar esta nueva partícula en consideración en la desintegración del neutrón, el balance de energía y momento en el proceso cuadraría. La primera propuesta de Pauli se hizo en su carta, hoy famosa, dirigida a “Liebe Radioaktive Damen und Herren”, y de esta hipótesis Pauli derivó la explicación hoy convencional de que el espectro de energía exhibido por los electrones \beta fuera continuo, con un límite superior nítido, como los experimentos mostraban.

Es interesante destacar que esta predicción de Pauli es casi simultánea a la otra gran predicción del momento, la de las antipartículas por parte de Dirac en 1931. Vemos así surgir en los 1930s una nueva tendencia: hasta entonces las partículas se iban descubriendo esencialmente por observación guiada por análisis conceptuales previos, algo que podríamos llamar previsión. Así se habían descubierto el electrón en 1898 y el protón en 1919, y así se puede encuadrar la previsión del neutrino, por el argumento conceptual basado en las leyes de conservación. Pero a partir de Dirac, a estos canales de observación y previsión se añade un canal de pura predicción: es posible predecir partículas que ni siquiera habían aparecido en ningún modelo anterior, ni se sabía que tuvieran ningún papel en el teatro del mundo, antes de su eventual observación, basándose en argumentos teóricos de pura simetría. Aunque no todos estuvieran dispuestos a creerlas: Pauli tardó mucho en aceptar la teoría del positrón, y antes de hacerlo llegó a decir a Dirac: “no creeré en el positrón, aunque se descubra”.

Como en toda la física, la previsión o la predicción de un fenómeno que no ha sido observado antes y su confirmación posterior mediante observaciones es el marchamo de las teorías realmente soberbias. El descubrimiento del positrón, la antipartícula del electrón, en 1932 es el primer ejemplo de éxito de este tipo de predicción “pura”. Mencionamos antes que Pauli era reticente a la predicción de Dirac sobre las antipartículas. Pero su tozudez tenía límites, como muestra otra de las innumerables anécdotas ligadas a su persona (“todas verdaderas”, según Gamow). En un artículo enviado a publicar antes de este descubrimiento, Pauli escribe algo como “la ecuación de Dirac es excelente, pero tiene en su contra un grave fallo en la predicción de la antipartícula del electrón, que nadie ha observado hasta ahora”. Cuando Pauli corrigió las galeradas, se acababa de descubrir el positrón, y Pauli cambió la frase, que en la versión final publicada apareció como  “la ecuación de Dirac es excelente, y tiene a su favor un importante acierto en la predicción de la antipartícula del electrón, que se ha observado recientemente” [escribo esta anécdota de memoria, pues no recuerdo donde la leí y he estado perezoso para tratar de documentarla en internet, de modo que las frases no son las literales. Por eso lo advierto; en la fuente fiable en que lo leí daba referencias].

Volviendo a nuestra historia, aquí la pregunta es: ¿qué interacciones son las responsables de la desintegración beta de un neutrón? Y, un poco más allá, ¿de las desintegraciones radiactivas de los núcleos inestables? Tampoco son de origen electromagnético, y deben ser diferentes de las interacciones fuertes. A principios de los 1930s se postuló otra nueva interacción, que hoy denominamos interacción nuclear débil. Deben su nombre, otro alarde de imaginación, al hecho de que éstas son más débiles que las electromagnéticas. En 1934 Fermi adelantó, en el marco de la entonces naciente teoría cuántica de campos una teoría de la desintegración beta, pero hubo que esperar más de 40 años para disponer de una teoría aceptable de las interacciones débiles, que hoy las engloba junto con las electromagnéticas en la llamada teoría electrodébil y éstas a su vez con las fuertes en una sola teoría, el llamado modelo estandar.

De manera que, visto retrospectivamente, en los 1930 la lista de “cosas por hacer” en este campo incluía dos tareas principales.

Sobre la primera tarea, como comentamos en el post anterior, en 1928 ya se había comenzado a construir una teoría cuántica del electromagnetismo y de su interacción con la materia, la QED. Esta tarea comparativamente era más fácil, pues se disponía como punto de partida del electromagnetismo clásico y de la Mecánica Cuántica ordinaria. Veinte años después, en 1948, la QED alcanza su mayoría de edad.

Sobre la segunda tarea, el problema era ciertamente diferente y sin duda mayor. Se trataba de entender, en este caso partiendo casi de cero, las interacciones débiles y las interacciones fuertes. La descripción de cada una de estas dos interacciones siguió un camino histórico diferente y tropezó con dificultades específicas, que en total tardaron en solventarse aproximadamente medio siglo. Su historia es bastante ilustrativa, y sobre ella hablaremos en los siguientes posts.

Junto con las dos interacciones gravitatoria y electromagnética previamente conocidas y bien estudiadas, las dos nuevas débiles y fuertes configuran el esquema de cuatro interacciones básicas en la Naturaleza, que es el actualmente vigente.

Este post, “Del átomo al Higgs V: El nacimiento de la idea de las cuatro interacciones fundamentales” forma parte de una serie. Este enlace lleva al post sucesivo. Si quiere saltar directamente a otro post de la serie, puede usar los enlaces directos a cada entrada.

O Átomos y vacío: donde Demócrito conoce a Higgs
I Los átomos de la materia ordinaria
II Cuantificación y la estabilidad del Átomo
III Espín, Bosones y Fermiones
IV La electrodinámica cuántica y los primeros ejemplos de la teoría cuántica de campos
V El nacimiento de la idea de las cuatro interacciones fundamentales
VI El Zoo de partículas y los primeros intentos de describir las interacciones fuerte y débil
Interludio: Los Nobel en la historia del átomo al Higgs
VII Dificultades iniciales de las teorías gauge entre 1954 y 1961
VIII Los quarks, desde su propuesta hasta su “descubrimiento” (1961 a 1974)
IX El campo de Higgs y el mecanismo de Brout-Englert-Higgs
X La libertad asintótica y la Cromodinámica Cuántica
Interludio: ¿Pero qué hay realmente en un protón?
Interludio. Calculando la masa del protón
XI El actual modelo estandar a vista de pájaro
XII 1898-1995, un siglo descubriendo partículas …
XIII Búsqueda y hallazgo del bosón de Higgs
Del átomo al Higgs: Para saber más
.
.
Anuncios
Esta entrada fue publicada en Divulgación, Física, Mecánica Cuántica, Relatividad, Uncategorized y etiquetada , , , , , , , . Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s