Historia de la teoría cuántica de campos.

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

En física de partículas, la historia de la teoría cuántica de campos comienza con su creación por Paul Dirac, cuando intentó cuantificar el campo electromagnético a finales de la década de 1920. En las décadas de 1940 y 1950 se produjeron importantes avances en la teoría, que condujeron a la introducción de la electrodinámica cuántica renormalizada (QED). La teoría de campo detrás de la QED fue tan precisa y exitosa en las predicciones que se hicieron esfuerzos para aplicar los mismos conceptos básicos a las otras fuerzas de la naturaleza. A partir de 1954, se encontró el paralelo mediante la teoría de calibre, que condujo a finales de la década de 1970 a modelos de campo cuánticos de fuerza nuclear fuerte y fuerza nuclear débil, unidos en el modelo estándar moderno de física de partículas.

Hasta la fecha, los esfuerzos por describir la gravedad utilizando las mismas técnicas han fracasado. El estudio de la teoría cuántica de campos sigue floreciendo, al igual que las aplicaciones de sus métodos a muchos problemas físicos. Sigue siendo una de las áreas más vitales de la física teórica en la actualidad, ya que proporciona un lenguaje común a varias ramas diferentes de la física.

Primeros desarrollos

La teoría del campo cuántico se originó en los años veinte del problema de crear una teoría mecánica cuántica del campo electromagnético. En particular, de Broglie en 1924 introdujo la idea de una descripción de la onda de los sistemas elementales de la siguiente manera: "procedemos en este trabajo desde la suposición de la existencia de un cierto fenómeno periódico de carácter aún por determinar, que debe atribuirse a cada una de las parcelas de energía aisladas".

En 1925, Werner Heisenberg, Max Born y Pascual Jordan construyeron tal teoría expresando los grados de libertad internos del campo como un conjunto infinito de osciladores armónicos, y luego utilizando el procedimiento de cuantificación canónico para estos osciladores; su artículo se publicó en 1926. Esta teoría suponía que no había cargas ni corrientes eléctricas presentes y hoy se llamaría teoría de campo libre.

La primera teoría razonablemente completa de la electrodinámica cuántica, que incluía tanto el campo electromagnético como la materia cargada eléctricamente como objetos mecánicos cuánticos, fue creada por Paul Dirac en 1927. Esta teoría cuántica de campos podría usarse para modelar procesos importantes como la emisión. de un fotón por un electrón que cae a un estado cuántico de menor energía, un proceso en el que el número de partículas cambia: un átomo en el estado inicial se convierte en un átomo más un fotón en el estado final. Ahora se entiende que la capacidad de describir tales procesos es una de las características más importantes de la teoría cuántica de campos.

El último paso crucial fue la teoría de la desintegración β de Enrico Fermi (1934). En él, se demostró que la no conservación de las especies de fermiones se deriva de la segunda cuantificación: la creación y aniquilación de fermiones pasó a primer plano y se consideró que la teoría cuántica de campos describe las desintegraciones de partículas. (El avance de Fermi fue presagiado de alguna manera en los estudios abstractos de los físicos soviéticos Viktor Ambartsumian y Dmitri Ivanenko, en particular la hipótesis Ambarzumian-Ivanenko de la creación de partículas masivas (1930). La idea era que no sólo los cuantos de la campo electromagnético, fotones, pero también otras partículas podrían surgir y desaparecer como resultado de su interacción con otras partículas).

Incorporación de la relatividad especial

Era evidente desde el principio que un tratamiento cuántico adecuado del campo electromagnético tenía que incorporar de alguna manera la teoría de la relatividad de Einstein, que había surgido del estudio del electromagnetismo clásico. Esta necesidad de unir la relatividad y la mecánica cuántica fue la segunda motivación importante en el desarrollo de la teoría cuántica de campos. Pascual Jordan y Wolfgang Pauli demostraron en 1928 que se podía hacer que los campos cuánticos se comportaran de la manera predicha por la relatividad especial durante las transformaciones de coordenadas (específicamente, demostraron que los conmutadores de campo eran invariantes de Lorentz). Un impulso adicional para la teoría cuántica de campos llegó con el descubrimiento de la ecuación de Dirac, que originalmente fue formulada e interpretada como una ecuación de una sola partícula análoga a la ecuación de Schrödinger, pero a diferencia de la ecuación de Schrödinger, la ecuación de Dirac satisface tanto la invariancia de Lorentz, que es decir, los requisitos de la relatividad especial y las reglas de la mecánica cuántica. La ecuación de Dirac acomodó el valor de espín 1/2 del electrón y tuvo en cuenta su momento magnético, además de dar predicciones precisas para los espectros del hidrógeno.

Sin embargo, el intento de interpretación de la ecuación de Dirac como una ecuación de una sola partícula no pudo mantenerse por mucho tiempo y finalmente se demostró que varias de sus propiedades indeseables (como los estados de energía negativa) podían tener sentido reformulándolas. y reinterpretar la ecuación de Dirac como una verdadera ecuación de campo, en este caso para el "campo de Dirac" o el "campo de electrones", con las "soluciones de energía negativa" apuntando a la existencia de antipartículas. Este trabajo fue realizado por primera vez por el propio Dirac con la invención de la teoría de los agujeros en 1930 y por Wendell Furry, Robert Oppenheimer, Vladimir Fock y otros. Erwin Schrödinger, durante el mismo período en que descubrió su famosa ecuación en 1926, también encontró de forma independiente su generalización relativista conocida como ecuación de Klein-Gordon, pero la descartó porque, sin espín, predecía propiedades imposibles para el espectro del hidrógeno. (Ver Oskar Klein y Walter Gordon.) Se dice que todas las ecuaciones de onda relativistas que describen partículas de espín cero son del tipo Klein-Gordon.

Incertidumbre, otra vez

Un análisis sutil y cuidadoso realizado en 1933 por Niels Bohr y Léon Rosenfeld demostró que existe una limitación fundamental en la capacidad de medir simultáneamente las intensidades de los campos eléctrico y magnético que entran en la descripción de las cargas en interacción con la radiación, impuesta por la Principio de incertidumbre, que debe aplicarse a todas las cantidades canónicamente conjugadas. Esta limitación es crucial para la formulación e interpretación exitosa de una teoría cuántica de campos de fotones y electrones (electrodinámica cuántica) y, de hecho, de cualquier teoría cuántica de campos perturbativa. El análisis de Bohr y Rosenfeld explica fluctuaciones en los valores del campo electromagnético que difieren de los valores clásicamente "permitidos" valores alejados de las fuentes del campo.

Su análisis fue crucial para demostrar que las limitaciones y las implicaciones físicas del principio de incertidumbre se aplican a todos los sistemas dinámicos, ya sean campos o partículas materiales. Su análisis también convenció a la mayoría de los físicos de que cualquier idea de volver a una descripción fundamental de la naturaleza basada en la teoría de campos clásica, como la que Einstein pretendía con sus numerosos y fallidos intentos de una teoría clásica de campos unificados, estaba simplemente fuera de discusión. Los campos debían ser cuantificados.

Segunda cuantificación

El tercer hilo conductor en el desarrollo de la teoría cuántica de campos fue la necesidad de manejar las estadísticas de sistemas de muchas partículas de manera consistente y sencilla. En 1927, Pascual Jordán intentó extender la cuantificación canónica de campos a las funciones de onda de muchos cuerpos de partículas idénticas utilizando un formalismo que se conoce como teoría de la transformación estadística; este procedimiento ahora se denomina a veces segunda cuantificación. También se le atribuye la invención a Dirac, quien presentó las ideas clave en un artículo de 1927. En 1928, Jordan y Eugene Wigner descubrieron que el campo cuántico que describe los electrones u otros fermiones tenía que expandirse utilizando operadores de creación y aniquilación anti-conmutación debido al principio de exclusión de Pauli (ver Transformación de Jordan-Wigner). Este hilo de desarrollo se incorporó a la teoría de muchos cuerpos e influyó fuertemente en la física de la materia condensada y la física nuclear.

El problema de los infinitos

A pesar de sus primeros éxitos, la teoría cuántica de campos estuvo plagada de varias dificultades teóricas graves. Cantidades físicas básicas, como la autoenergía del electrón, el cambio de energía de los estados del electrón debido a la presencia del campo electromagnético, dieron contribuciones infinitas y divergentes (un resultado sin sentido) cuando se calcularon usando las técnicas perturbativas disponibles en los años 1930 y 1990. la mayor parte de la década de 1940. El problema de la autoenergía del electrón ya era un tema serio en la teoría clásica del campo electromagnético, donde el intento de atribuir al electrón un tamaño o extensión finitos (el radio clásico del electrón) condujo inmediatamente a la pregunta de qué tensiones no electromagnéticas afectarían a la energía del electrón. es necesario invocar, lo que presumiblemente mantendría unido al electrón contra la repulsión de Coulomb de sus "partes" de tamaño finito. La situación era terrible y tenía ciertas características que a muchos les recordaban la "catástrofe de Rayleigh-Jeans". Sin embargo, lo que hizo que la situación en la década de 1940 fuera tan desesperada y sombría fue el hecho de que los ingredientes correctos (las ecuaciones de campo de Maxwell-Dirac cuantificadas en segundo lugar) para la descripción teórica de la interacción de fotones y electrones estaban en su lugar, y no había grandes conceptos conceptuales. Se necesitaba un cambio análogo al que requería una explicación finita y físicamente sensible del comportamiento radiativo de los objetos calientes, según lo previsto por la ley de radiación de Planck.

Procedimientos de renormalización

Las mejoras en la tecnología de microondas hicieron posible tomar medidas más precisas del cambio de niveles de un átomo de hidrógeno, ahora conocido como desplazamiento de Lamb y momento magnético del electrón. Estos experimentos expusieron discrepancias que la teoría no pudo explicar.

Hans Bethe dio una primera indicación de una posible salida en 1947, después de asistir a la Conferencia de Shelter Island. Mientras viajaba en tren desde la conferencia a Schenectady, hizo el primer cálculo no relativista del desplazamiento de las líneas del átomo de hidrógeno medido por Lamb y Retherford. A pesar de las limitaciones del cálculo, el acuerdo fue excelente. La idea era simplemente asignar infinitos a las correcciones de masa y carga que en realidad se fijaban en un valor finito mediante experimentos. De esta manera, los infinitos quedan absorbidos en esas constantes y producen un resultado finito que concuerda con los experimentos. Este procedimiento se denominó renormalización.

Este "problema de divergencia" se resolvió en el caso de la electrodinámica cuántica mediante el procedimiento conocido como renormalización en 1947-49 por Hans Kramers, Hans Bethe, Julian Schwinger, Richard Feynman y Shin'ichiro Tomonaga; el procedimiento fue sistematizado por Freeman Dyson en 1949. Se lograron grandes avances después de darse cuenta de que todos los infinitos en la electrodinámica cuántica están relacionados con dos efectos: la autoenergía del electrón/positrón y la polarización del vacío.

La renormalización requiere prestar mucha atención a lo que se entiende por, por ejemplo, los propios conceptos "carga" y "masa" tal como ocurren en las ecuaciones de campo puras que no interactúan. La "vacío" es en sí mismo polarizable y, por lo tanto, poblado por pares de partículas virtuales (dentro y fuera de la capa) y, por lo tanto, es un sistema dinámico hirviente y ocupado por derecho propio. Este fue un paso crítico para identificar la fuente de los "infinitos" y "divergencias". La "masa desnuda" y el "cargo desnudo" de una partícula, los valores que aparecen en las ecuaciones de campo libre (caso de no interacción), son abstracciones que simplemente no se realizan en el experimento (en interacción). Lo que medimos y, por tanto, lo que debemos tener en cuenta con nuestras ecuaciones y lo que deben tener en cuenta las soluciones, es la "masa renormalizada" y el "cargo renormalizado" de una partícula. Es decir, el "desplazado" o "vestido" valores que estas cantidades deben tener cuando se tiene el debido cuidado sistemático para incluir todas las desviaciones de sus "valores básicos" está dictado por la naturaleza misma de los propios campos cuánticos.

Electrodinámica cuántica

El primer enfoque que dio frutos se conoce como "representación de interacción" (ver el artículo Imagen de interacción), una generalización covariante de Lorentz e invariante de calibre de la teoría de la perturbación dependiente del tiempo utilizada en la mecánica cuántica ordinaria y desarrollada por Tomonaga y Schwinger, generalizando esfuerzos anteriores de Dirac, Fock y Boris Podolsky. Tomonaga y Schwinger inventaron un esquema covariante relativista para representar conmutadores de campo y operadores de campo intermedios entre las dos representaciones principales de un sistema cuántico, las representaciones de Schrödinger y Heisenberg. Dentro de este esquema, los conmutadores de campo en puntos separados se pueden evaluar en términos de conmutadores "desnudos" Operadores de creación y aniquilación de campos. Esto permite realizar un seguimiento de la evolución temporal tanto de las estructuras "desnudas" y valores "renormalizados", o perturbados, del hamiltoniano y expresa todo en términos de valores "desnudos" invariantes de calibre acoplados; ecuaciones de campo. Schwinger dio la formulación más elegante de este enfoque. El siguiente y más famoso desarrollo se debe a Richard Feynman, con sus brillantes reglas para asignar un "gráfico"/"diagrama" a los términos de la matriz de dispersión (ver matriz S y diagramas de Feynman). Estos correspondían directamente (a través de la ecuación de Schwinger-Dyson) a los procesos físicos mensurables (secciones transversales, amplitudes de probabilidad, anchos de desintegración y tiempos de vida de los estados excitados) que uno necesita poder calcular. Esto revolucionó la forma en que se llevan a cabo en la práctica los cálculos de la teoría cuántica de campos.

Dos libros de texto clásicos de la década de 1960, James D. Bjorken, Sidney David Drell, Relativistic Quantum Mechanics (1964) y J. J. Sakurai, Advanced Quantum Mechanics (1967). ), desarrolló a fondo las técnicas de expansión de gráficos de Feynman utilizando métodos físicamente intuitivos y prácticos siguiendo el principio de correspondencia, sin preocuparse por los tecnicismos involucrados en la derivación de las reglas de Feynman a partir de la superestructura de la propia teoría cuántica de campos. Aunque tanto el estilo heurístico y pictórico de Feynman al abordar los infinitos, como los métodos formales de Tomonaga y Schwinger, funcionaron extremadamente bien y dieron respuestas espectacularmente precisas, la verdadera naturaleza analítica de la cuestión de " renormalizabilidad", es decir, si CUALQUIER teoría formulada como una "teoría cuántica de campos" daría respuestas finitas, no se resolvió hasta mucho más tarde, cuando la urgencia de intentar formular teorías finitas para las interacciones fuertes y electrodébiles (y gravitacionales) exigía su solución.

La renormalización en el caso de QED fue en gran medida fortuita debido a la pequeñez de la constante de acoplamiento, el hecho de que el acoplamiento no tiene dimensiones que impliquen masa, la llamada constante de estructura fina, y también la masa cero del calibre. El bosón involucrado, el fotón, hizo manejable el comportamiento de QED a corta distancia y alta energía. Además, los procesos electromagnéticos son procesos muy "limpios" en el sentido de que no están muy suprimidos/amortiguados y/u ocultos por las otras interacciones de los medidores. En 1965, James D. Bjorken y Sidney David Drell observaron: "La electrodinámica cuántica (QED) ha alcanzado un estado de coexistencia pacífica con sus divergencias...".

La unificación de la fuerza electromagnética con la fuerza débil encontró dificultades iniciales debido a la falta de energías del acelerador lo suficientemente altas como para revelar procesos más allá del rango de interacción de Fermi. Además, fue necesario desarrollar una comprensión teórica satisfactoria de la subestructura de los hadrones, que culminó en el modelo de quarks.

Gracias a los primeros métodos heurísticos, ad hoc y de fuerza bruta de Feynman, y a los métodos abstractos de Tomonaga y Schwinger, elegantemente sintetizados por Freeman Dyson, del período de renormalización temprana, la La teoría moderna de la electrodinámica cuántica (QED) se ha consolidado. Sigue siendo la teoría física más precisa que se conoce, el prototipo de una exitosa teoría cuántica de campos. La electrodinámica cuántica es el ejemplo más famoso de lo que se conoce como teoría de calibre abeliano. Se basa en el grupo de simetría U(1) y tiene un campo calibre sin masa, la simetría calibre U(1), que dicta la forma de las interacciones que involucran el campo electromagnético. siendo el fotón el bosón de calibre.

Teoría de Yang-Mills

A partir de la década de 1950 con el trabajo de Yang y Mills, siguiendo el ejemplo anterior de Weyl, se exploraron los tipos de simetrías e invariancias que cualquier teoría de campo debe satisfacer. La QED, y de hecho todas las teorías de campos, se generalizaron a una clase de teorías cuánticas de campos conocidas como teorías de calibre. Que las simetrías dicten, limiten y requieran la forma de interacción entre partículas es la esencia de la "revolución de la teoría de calibre". Yang y Mills formularon el primer ejemplo explícito de una teoría de calibre no abeliano, la teoría de Yang-Mills, con un intento de explicación de las interacciones fuertes en mente. Entonces, a mediados de la década de 1950, se entendió (incorrectamente) que las interacciones fuertes estaban mediadas por los mesones pi, las partículas predichas por Hideki Yukawa en 1935, basándose en sus profundas reflexiones sobre la conexión recíproca entre la masa de cualquier fuerza mediadora. partícula y el rango de la fuerza que media. Esto fue permitido por el principio de incertidumbre. En ausencia de información dinámica, Murray Gell-Mann fue pionero en la extracción de predicciones físicas a partir de consideraciones puras de simetría no abeliana e introdujo grupos de Lie no abelianos en el álgebra actual y, por tanto, en las teorías de calibre que llegaron a reemplazarlas.

En las décadas de 1960 y 1970 se formuló una teoría de calibre ahora conocida como el modelo estándar de física de partículas, que describe sistemáticamente las partículas elementales y las interacciones entre ellas. Las interacciones fuertes se describen mediante la cromodinámica cuántica (QCD), basada en el "color" SU(3). Las interacciones débiles requieren la característica adicional de la ruptura espontánea de la simetría, dilucidada por Yoichiro Nambu y el mecanismo adjunto de Higgs, que se considera a continuación.

Unificación electroweak

La parte de interacción electrodébil del modelo estándar fue formulada por Sheldon Glashow, Abdus Salam y John Clive Ward en 1959 con su descubrimiento de la estructura de grupo SU(2)xU(1) de la teoría. En 1967, Steven Weinberg invocó brillantemente el mecanismo de Higgs para generar las masas W y Z (los bosones vectoriales intermedios responsables de las interacciones débiles y las corrientes neutras) y mantener la masa del fotón en cero. La idea de Goldstone y Higgs para generar masa en las teorías de calibre surgió a finales de los años cincuenta y principios de los sesenta, cuando varios teóricos (incluidos Yoichiro Nambu, Steven Weinberg, Jeffrey Goldstone, François Englert, Robert Brout, G. S. Guralnik, C. R. Hagen, Tom Kibble y Philip Warren Anderson) notaron una analogía posiblemente útil con la ruptura (espontánea) de la simetría U(1) del electromagnetismo en la formación del estado fundamental BCS de un superconductor. El bosón de calibre implicado en esta situación, el fotón, se comporta como si hubiera adquirido una masa finita.

Existe una posibilidad adicional de que el vacío físico (estado fundamental) no respete las simetrías implicadas por el estado "ininterrumpido" Lagrangiano electrodébil a partir del cual se llega a las ecuaciones de campo (consulte el artículo Interacción electrodébil para obtener más detalles). Gerardus 't Hooft y Martinus Veltman demostraron que la teoría electrodébil de Weinberg y Salam era renormalizable (finita) y, por tanto, coherente. La teoría de Glashow-Weinberg-Salam (teoría GWS) es un triunfo y, en determinadas aplicaciones, proporciona una precisión comparable a la de la electrodinámica cuántica.

Cromodinámica cuántica

En el caso de las interacciones fuertes, el progreso relacionado con su comportamiento de corta distancia y alta energía fue mucho más lento y frustrante. En el caso de interacciones fuertes con campos electrodébiles, surgieron cuestiones difíciles en cuanto a la fuerza del acoplamiento, la generación de masa de los portadores de fuerza, así como sus autointeracciones no lineales. Aunque ha habido avances teóricos hacia una gran teoría cuántica unificada de campos que incorpora la fuerza electromagnética, la fuerza débil y la fuerza fuerte, la verificación empírica aún está pendiente. La superunificación, que incorpora la fuerza gravitacional, es todavía muy especulativa y está siendo objeto de intensa investigación por parte de muchas de las mejores mentes de la física teórica contemporánea. La gravitación es una descripción del campo tensorial de un bosón calibre de espín-2, el "gravitón", y se analiza con más detalle en los artículos sobre relatividad general y gravedad cuántica.

Gravedad cuántica

Desde el punto de vista de las técnicas de la teoría cuántica de campos (cuatridimensional), y como lo atestiguan los numerosos esfuerzos para formular una teoría de la gravedad cuántica consistente, la cuantización gravitacional ha sido la campeona reinante del mal comportamiento.

Hay problemas técnicos subyacentes por el hecho de que la constante de gravitación newtoniana tiene dimensiones que involucran potencias de masa inversas y, como simple consecuencia, está plagada de autointeracciones no lineales perturbativamente mal comportadas. La gravedad es en sí misma una fuente de gravedad, de manera análoga a las teorías de calibre (cuyos acoplamientos, por el contrario, son adimensionales) que conducen a divergencias incontrolables en órdenes crecientes de la teoría de perturbaciones.

Además, según el principio de equivalencia, la gravedad se acopla a todas las energías con la misma fuerza, por lo que la noción de "apagar", "cortar&#34 es real. o separando, la interacción gravitacional de otras interacciones es ambigua, ya que, con la gravitación, estamos tratando con la estructura misma del espacio-tiempo.

Además, no se ha establecido que una teoría de la gravedad cuántica sea necesaria (ver Teoría cuántica de campos en el espacio-tiempo curvo).

Marco contemporáneo de renormalización

Los avances paralelos en la comprensión de las transiciones de fase en la física de la materia condensada condujeron a conocimientos novedosos basados en el grupo de renormalización. Involucraron el trabajo de Leo Kadanoff (1966) y Kenneth Geddes Wilson-Michael Fisher (1972), ampliando el trabajo de Ernst Stueckelberg-André Petermann (1953) y Murray Gell-Mann-Francis Low (1954), que condujo al seminal reformulación de la teoría cuántica de campos por Kenneth Geddes Wilson en 1975. Esta reformulación proporcionó información sobre la evolución de las teorías de campos efectivas con escala, que clasificaban todas las teorías de campos, renormalizables o no. La conclusión notable es que, en general, la mayoría de los observables son "irrelevantes", es decir, la física macroscópica está dominada por sólo unos pocos observables en la mayoría de los sistemas.

Durante el mismo período, Leo Kadanoff (1969) introdujo un formalismo de álgebra de operadores para el modelo bidimensional de Ising, un modelo matemático de ferromagnetismo ampliamente estudiado en física estadística. Este desarrollo sugirió que la teoría cuántica de campos describe su límite de escala. Posteriormente, se desarrolló la idea de que un número finito de operadores generadores podría representar todas las funciones de correlación del modelo de Ising. Alexander Belavin, Alexander Markovich Polyakov y Alexander Zamolodchikov sugirieron la existencia de una simetría mucho más fuerte para el límite de escala de los sistemas críticos bidimensionales en 1984, lo que finalmente condujo al desarrollo de la teoría de campos conforme, un caso especial de la teoría cuántica de campos. , que actualmente se utiliza en diferentes áreas de la física de partículas y la física de la materia condensada.

El grupo de renormalización abarca un conjunto de ideas y métodos para monitorear cambios en el comportamiento de la teoría a escala, proporcionando una comprensión física profunda que desató lo que se ha llamado la "gran síntesis" de la teoría. de la física teórica, uniendo las técnicas teóricas de campos cuánticos utilizadas en la física de partículas y la física de la materia condensada en un único y poderoso marco teórico.

La teoría del campo de calibre de las interacciones fuertes, la cromodinámica cuántica, se basa crucialmente en este grupo de renormalización por sus rasgos característicos distintivos, la libertad asintótica y el confinamiento del color.

Evolución reciente

  • Teoría de campo cuántico algebraico
  • Axiomatic quantum field theory
  • Teoría de campo cuántico topológico (TQFT)
Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save