Fotón

Compartir Imprimir Citar

El fotón (del griego antiguo φῶς , φωτός (phôs, phōtós) 'luz') es un tipo de partícula elemental que sirve como cuanto del campo electromagnético, incluida la radiación electromagnética, como la luz y las ondas de radio, y el portador de fuerza para la fuerza electromagnetica. Los fotones no tienen masa, por lo que siempre se mueven a la velocidad de la luz en el vacío,299 792 458 m/s (o alrededor de 186 282 mi/s). El fotón pertenece a la clase de los bosones.

Como todas las partículas elementales, los fotones actualmente se explican mejor mediante la mecánica cuántica y exhiben una dualidad onda-partícula, su comportamiento presenta propiedades tanto de ondas como de partículas. El concepto moderno de fotón se originó durante las dos primeras décadas del siglo XX con el trabajo de Albert Einstein, quien se basó en la investigación de Max Planck. Al tratar de explicar cómo la materia y la radiación electromagnética podrían estar en equilibrio térmico entre sí, Planck propuso que la energía almacenada dentro de un objeto material debería considerarse como compuesta por un número entero de partes discretas de igual tamaño. Para explicar el efecto fotoeléctrico, Einstein introdujo la idea de que la luz misma está hecha de unidades discretas de energía. En 1926, Gilbert N. Lewis popularizó el término fotónpara estas unidades de energía. Posteriormente, muchos otros experimentos validaron el enfoque de Einstein.

En el Modelo Estándar de física de partículas, los fotones y otras partículas elementales se describen como una consecuencia necesaria de las leyes físicas que tienen una cierta simetría en cada punto del espacio-tiempo. Las propiedades intrínsecas de las partículas, como la carga, la masa y el espín, están determinadas por esta simetría de calibre. El concepto de fotón ha llevado a avances trascendentales en la física experimental y teórica, incluidos los láseres, la condensación de Bose-Einstein, la teoría cuántica de campos y la interpretación probabilística de la mecánica cuántica. Se ha aplicado a la fotoquímica, microscopía de alta resolución y mediciones de distancias moleculares. Además, los fotones se han estudiado como elementos de las computadoras cuánticas y para aplicaciones en imágenes ópticas y comunicación óptica, como la criptografía cuántica.

Nomenclatura

La palabra quanta (singular quantum, latín para cuánto) se usó antes de 1900 para referirse a partículas o cantidades de diferentes cantidades, incluida la electricidad. En 1900, el físico alemán Max Planck estaba estudiando la radiación del cuerpo negro y sugirió que las observaciones experimentales, específicamente en longitudes de onda más cortas, se explicarían si la energía almacenada dentro de una molécula fuera una "cantidad discreta compuesta por un número entero de partículas finitas". partes iguales", a los que llamó "elementos energéticos".En 1905, Albert Einstein publicó un artículo en el que proponía que muchos fenómenos relacionados con la luz, incluida la radiación del cuerpo negro y el efecto fotoeléctrico, se explicarían mejor modelando las ondas electromagnéticas como paquetes de ondas discretas espacialmente localizadas. Llamó a tal paquete de ondas el cuanto de luz (en alemán: das Lichtquant).

El nombre fotón deriva de la palabra griega para luz, φῶς (transliterado phôs). Arthur Compton usó fotón en 1928, refiriéndose a GN Lewis, quien acuñó el término en una carta a Nature el 18 de diciembre de 1926. El mismo nombre se usó antes pero nunca fue ampliamente adoptado antes de Lewis: en 1916 por el físico y psicólogo estadounidense Leonard T. Troland, en 1921 por el físico irlandés Joly, en 1924 por el fisiólogo francés Wurmser (1890–1993) y en 1926 por el físico francés Wolfers (1891–1971).El nombre se sugirió inicialmente como una unidad relacionada con la iluminación del ojo y la sensación de luz resultante y se utilizó más tarde en un contexto fisiológico. Aunque las teorías de Wolfers y Lewis fueron contradichas por muchos experimentos y nunca aceptadas, la mayoría de los físicos adoptaron el nuevo nombre poco después de que Compton lo usara.

En física, un fotón generalmente se denota con el símbolo γ (la letra griega gamma). Este símbolo para el fotón probablemente se deriva de los rayos gamma, que fueron descubiertos en 1900 por Paul Villard, nombrados por Ernest Rutherford en 1903, y que Rutherford y Edward Andrade demostraron que eran una forma de radiación electromagnética en 1914. En química e ingeniería óptica, los fotones suelen simbolizarse con , que es la energía del fotón, donde h es la constante de Planck y la letra griega ν (nu) es la frecuencia del fotón. Mucho menos comúnmente, el fotón se puede simbolizar por hf, donde su frecuencia se denota por f.

Propiedades físicas

Un fotón no tiene masa, no tiene carga eléctrica y es una partícula estable. En el vacío, un fotón tiene tres posibles estados de polarización. El fotón es el bosón de calibre para el electromagnetismo y, por lo tanto, todos los demás números cuánticos del fotón (como el número de leptones, el número de bariones y los números cuánticos de sabor) son cero. Además, el fotón obedece a las estadísticas de Bose-Einstein, no al principio de exclusión de Pauli.

Los fotones se emiten en muchos procesos naturales. Por ejemplo, cuando se acelera una carga, emite radiación de sincrotrón. Durante una transición molecular, atómica o nuclear a un nivel de energía más bajo, se emitirán fotones de varias energías, desde ondas de radio hasta rayos gamma. Los fotones también se pueden emitir cuando se aniquila una partícula y su correspondiente antipartícula (por ejemplo, aniquilación electrón-positrón).

Energía relativista y cantidad de movimiento

En el espacio vacío, el fotón se mueve a c (la velocidad de la luz) y su energía y cantidad de movimiento están relacionadas por E = pc, donde p es la magnitud del vector de cantidad de movimiento p. Esto se deriva de la siguiente relación relativista, con m = 0: {displaystyle E^{2}=p^{2}c^{2}+m^{2}c^{4}~.}

La energía y el momento de un fotón dependen únicamente de su frecuencia ( nu) o inversamente, su longitud de onda (λ): {displaystyle E=hbar ,omega =h,nu ={frac {,h,c,}{lambda }}} {displaystyle {boldsymbol {p}}=hbar ,{boldsymbol {k}}~,}

donde k es el vector de onda, donde

Dado que p apunta en la dirección de propagación del fotón, la magnitud de su momento es {displaystyle pequiv left|{boldsymbol {p}}right|=hbar ,k={frac {,h,nu ,}{c}}={frac {,h,}{lambda}}~.}

Polarización y momento angular

El fotón también transporta otras dos cantidades llamadas momento angular de espín (que está relacionado con la polarización lineal o circular del fotón) y momento angular orbital.

Momento angular de giro

El momento angular de giro de la luz no depende de su frecuencia y fue verificado experimentalmente por Raman y Bhagavantam en 1931.

Debido a que los fotones siempre se mueven a la velocidad de la luz, el espín se expresa mejor en términos del componente medido a lo largo de su dirección de movimiento, su helicidad, que debe ser , 0 o −ħ. Las tres posibles helicidades, llamadas dextrógira, lineal y levógira, corresponden a los tres posibles estados de polarización circular del fotón.

Para ilustrar el significado de estas fórmulas, la aniquilación de una partícula con su antipartícula en el espacio libre debe resultar en la creación de al menos dos fotones por la siguiente razón: en el marco del centro del momento, las antipartículas que chocan no tienen momento neto, mientras que un solo fotón siempre tiene impulso (ya que, como hemos visto, está determinado por la frecuencia o longitud de onda del fotón, que no puede ser cero). Por lo tanto, la conservación del impulso (o, de manera equivalente, la invariancia traslacional) requiere que se creen al menos dos fotones, con un impulso neto cero. La energía de los dos fotones o, de manera equivalente, su frecuencia, puede determinarse a partir de la conservación de cuatro impulsos.

Visto de otra manera, el fotón puede considerarse como su propia antipartícula (por lo tanto, un "antifotón" es simplemente un fotón normal con momento opuesto, polarización igual y desfasado 180 °). El proceso inverso, la producción de pares, es el mecanismo dominante por el cual los fotones de alta energía, como los rayos gamma, pierden energía al atravesar la materia. Ese proceso es el reverso de la "aniquilación a un fotón" permitido en el campo eléctrico de un núcleo atómico.

Las fórmulas clásicas para la energía y el momento de la radiación electromagnética se pueden volver a expresar en términos de eventos de fotones. Por ejemplo, la presión de la radiación electromagnética sobre un objeto se deriva de la transferencia del momento de los fotones por unidad de tiempo y de área a ese objeto, ya que la presión es la fuerza por unidad de área y la fuerza es el cambio en el momento por unidad de tiempo.

Momento angular orbital

Cada fotón lleva dos formas distintas e independientes de momento angular: espín y momento angular orbital. Como se discutió anteriormente, el momento angular de giro de la luz de un fotón en particular siempre es , 0 o −ħ. Por el contrario, el momento angular orbital ligero de un fotón en particular puede ser cualquier número entero N, incluido el cero.

Comprobaciones experimentales de la masa de fotones

Las teorías físicas actuales comúnmente aceptadas implican o asumen que el fotón es estrictamente sin masa. Si el fotón no es estrictamente una partícula sin masa, no se movería a la velocidad exacta de la luz, c, en el vacío. Su velocidad sería menor y dependería de su frecuencia. La relatividad no se vería afectada por esto; la llamada velocidad de la luz, c, no sería entonces la velocidad real a la que se mueve la luz, sino una constante de la naturaleza que es el límite superior de la velocidad que cualquier objeto teóricamente podría alcanzar en el espacio-tiempo. Por lo tanto, seguiría siendo la velocidad de las ondas del espacio-tiempo (ondas gravitacionales y gravitones), pero no sería la velocidad de los fotones.

Si un fotón tuviera una masa distinta de cero, también habría otros efectos. Se modificaría la ley de Coulomb y el campo electromagnético tendría un grado de libertad físico extra. Estos efectos producen sondas experimentales más sensibles de la masa del fotón que la dependencia de frecuencia de la velocidad de la luz. Si la ley de Coulomb no es exactamente válida, entonces eso permitiría que exista la presencia de un campo eléctrico dentro de un conductor hueco cuando está sujeto a un campo eléctrico externo. Esto proporciona un medio para pruebas de muy alta precisión de la ley de Coulomb. Un resultado nulo de tal experimento ha establecido un límite de m ≲10 eV/ c.

Se han obtenido límites superiores más nítidos en la masa de luz en experimentos diseñados para detectar los efectos causados ​​por el potencial del vector galáctico. Aunque el potencial del vector galáctico es muy grande porque el campo magnético galáctico existe en escalas de longitud muy grandes, solo el campo magnético sería observable si el fotón no tuviera masa. En el caso de que el fotón tenga masa, el término de masa1/2m A μ A afectaría al plasma galáctico. El hecho de que no se vean tales efectos implica un límite superior en la masa del fotón de m <3 × 10 eV/ c. El potencial del vector galáctico también puede probarse directamente midiendo el par ejercido sobre un anillo magnetizado. Tales métodos se utilizaron para obtener el límite superior más agudo de1,07 × 10 eV/ c (el equivalente de10 daltons) dado por el Grupo de Datos de Partículas.

Se ha demostrado que estos límites definidos por la no observación de los efectos causados ​​por el potencial del vector galáctico dependen del modelo. Si la masa del fotón se genera a través del mecanismo de Higgs, entonces el límite superior de m ≲10 eV/ c de la prueba de la ley de Coulomb es válida.

Desarrollo historico

En la mayoría de las teorías hasta el siglo XVIII, la luz se representaba como compuesta de partículas. Dado que los modelos de partículas no pueden explicar fácilmente la refracción, la difracción y la birrefringencia de la luz, René Descartes (1637), Robert Hooke (1665) y Christiaan Huygens (1678) propusieron teorías ondulatorias de la luz; sin embargo, los modelos de partículas siguieron dominando, principalmente debido a la influencia de Isaac Newton. A principios del siglo XIX, Thomas Young y August Fresnel demostraron claramente la interferencia y la difracción de la luz, y en 1850 los modelos de ondas eran generalmente aceptados.La predicción de 1865 de James Clerk Maxwell de que la luz era una onda electromagnética, que fue confirmada experimentalmente en 1888 por la detección de ondas de radio de Heinrich Hertz, parecía ser el golpe final para los modelos de partículas de luz.

Sin embargo, la teoría ondulatoria de Maxwell no explica todas las propiedades de la luz. La teoría de Maxwell predice que la energía de una onda luminosa depende únicamente de su intensidad, no de su frecuencia; sin embargo, varios tipos independientes de experimentos muestran que la energía impartida por la luz a los átomos depende únicamente de la frecuencia de la luz, no de su intensidad. Por ejemplo, algunas reacciones químicas son provocadas únicamente por luz de frecuencia superior a cierto umbral; la luz de frecuencia inferior al umbral, por intensa que sea, no inicia la reacción. De manera similar, los electrones pueden ser expulsados ​​​​de una placa de metal al iluminarla con una luz de frecuencia suficientemente alta (el efecto fotoeléctrico); la energía del electrón expulsado está relacionada únicamente con la frecuencia de la luz, no con su intensidad.

Al mismo tiempo, las investigaciones de la radiación de cuerpo negro realizadas durante cuatro décadas (1860-1900) por varios investigadores culminaron con la hipótesis de Max Planck de que la energía de cualquier sistema que absorba o emita radiación electromagnética de frecuencia ν es un múltiplo entero de un cuanto de energía E = . Como mostró Albert Einstein, se debe suponer alguna forma de cuantización de la energía para explicar el equilibrio térmico observado entre la materia y la radiación electromagnética; por esta explicación del efecto fotoeléctrico, Einstein recibió el Premio Nobel de física en 1921.

Dado que la teoría de la luz de Maxwell admite todas las energías posibles de radiación electromagnética, la mayoría de los físicos asumieron inicialmente que la cuantización de la energía era el resultado de alguna restricción desconocida sobre la materia que absorbe o emite la radiación. En 1905, Einstein fue el primero en proponer que la cuantización de la energía era una propiedad de la propia radiación electromagnética. Aunque aceptó la validez de la teoría de Maxwell, Einstein señaló que muchos experimentos anómalos podrían explicarse si la energía de una onda de luz maxwelliana se localizara en cuantos puntuales que se mueven independientemente unos de otros, incluso si la onda en sí misma se propaga continuamente sobre espacio. En 1909 y 1916,Einstein demostró que, si se acepta la ley de Planck con respecto a la radiación del cuerpo negro, los cuantos de energía también deben llevar un momento p = h / λ  , convirtiéndolos en partículas de pleno derecho. Este impulso fotónico fue observado experimentalmente por Arthur Compton, por lo que recibió el Premio Nobel en 1927. Entonces, la pregunta fundamental era cómo unificar la teoría ondulatoria de la luz de Maxwell con su naturaleza de partículas observada experimentalmente. La respuesta a esta pregunta ocupó a Albert Einstein por el resto de su vida y fue resuelta en la electrodinámica cuántica y su sucesor, el Modelo Estándar. (Ver § Segunda cuantización y § Como un bosón de calibre, a continuación).

Las predicciones de Einstein de 1905 se verificaron experimentalmente de varias maneras en las dos primeras décadas del siglo XX, como se relata en la conferencia del Nobel de Robert Millikan. Sin embargo, antes de que el experimento de Compton mostrara que los fotones tenían un impulso proporcional a su número de onda (1922), la mayoría de los físicos se resistían a creer que la radiación electromagnética en sí misma pudiera ser una partícula. (Ver, por ejemplo, las conferencias Nobel de Wien, Planck y Millikan.)En cambio, existía la creencia generalizada de que la cuantización de la energía era el resultado de alguna restricción desconocida sobre la materia que absorbía o emitía radiación. Las actitudes cambiaron con el tiempo. En parte, el cambio puede atribuirse a experimentos como los que revelaron la dispersión de Compton, en los que era mucho más difícil no atribuir la cuantificación a la propia luz para explicar los resultados observados.

Incluso después del experimento de Compton, Niels Bohr, Hendrik Kramers y John Slater hicieron un último intento de preservar el modelo de luz del campo electromagnético continuo de Maxwell, la llamada teoría BKS. Una característica importante de la teoría BKS es cómo trata la conservación de la energía y la conservación del impulso. En la teoría BKS, la energía y el momento solo se conservan en promedio a través de muchas interacciones entre la materia y la radiación. Sin embargo, los experimentos refinados de Compton mostraron que las leyes de conservación se cumplen para las interacciones individuales. En consecuencia, Bohr y sus compañeros de trabajo dieron a su modelo "un funeral lo más honorable posible". Sin embargo, los fracasos del modelo BKS inspiraron a Werner Heisenberg en su desarrollo de la mecánica matricial.

Algunos físicos persistieron en desarrollar modelos semiclásicos en los que la radiación electromagnética no está cuantificada, pero la materia parece obedecer las leyes de la mecánica cuántica. Aunque la evidencia de los experimentos químicos y físicos de la existencia de fotones era abrumadora en la década de 1970, esta evidencia no podía considerarse absolutamente definitiva; ya que se basaba en la interacción de la luz con la materia, y una teoría de la materia suficientemente completa podría, en principio, dar cuenta de la evidencia. Sin embargo, todas las teorías semiclásicas fueron refutadas definitivamente en las décadas de 1970 y 1980 mediante experimentos de correlación de fotones. Por lo tanto, se considera probada la hipótesis de Einstein de que la cuantización es una propiedad de la propia luz.

Principios de incertidumbre y dualidad onda-partícula

Los fotones obedecen las leyes de la mecánica cuántica, por lo que su comportamiento tiene aspectos tanto ondulatorios como corpusculares. Cuando un fotón es detectado por un instrumento de medición, se registra como una sola unidad de partículas. Sin embargo, la probabilidad de detectar un fotón se calcula mediante ecuaciones que describen ondas. Esta combinación de aspectos se conoce como dualidad onda-partícula. Por ejemplo, la distribución de probabilidad para la ubicación en la que se podría detectar un fotón muestra claramente fenómenos ondulatorios como la difracción y la interferencia. Un único fotón que pasa a través de un experimento de doble rendija recibe su energía en un punto de la pantalla con una distribución de probabilidad dada por su patrón de interferencia determinado por las ecuaciones de onda de Maxwell. Sin embargo, los experimentos confirman que el fotón esni un pulso corto de radiación electromagnética; las ondas de Maxwell de un fotón se difractarán, pero la energía del fotón no se dispersa a medida que se propaga, ni esta energía se divide cuando encuentra un divisor de haz. Más bien, el fotón recibido actúa como una partícula puntual ya que es absorbido o emitido como un todo por sistemas arbitrariamente pequeños, incluidos sistemas mucho más pequeños que su longitud de onda, como un núcleo atómico (≈10 m de diámetro) o incluso el punto- como electrón.

Si bien muchos textos introductorios tratan los fotones utilizando las técnicas matemáticas de la mecánica cuántica no relativista, esto es, en cierto modo, una simplificación excesiva, ya que los fotones son, por naturaleza, intrínsecamente relativistas. Debido a que los fotones tienen masa en reposo cero, ninguna función de onda definida para un fotón puede tener todas las propiedades familiares de las funciones de onda en la mecánica cuántica no relativista. Para evitar estas dificultades, los físicos emplean la segunda teoría cuantificada de los fotones que se describe a continuación, la electrodinámica cuántica, en la que los fotones son excitaciones cuantificadas de modos electromagnéticos.

Otra dificultad es encontrar el análogo adecuado para el principio de incertidumbre, una idea atribuida con frecuencia a Heisenberg, quien introdujo el concepto al analizar un experimento mental que involucraba un electrón y un fotón de alta energía. Sin embargo, Heisenberg no dio definiciones matemáticas precisas de lo que significaba la "incertidumbre" en estas medidas. La declaración matemática precisa del principio de incertidumbre de la posición-cantidad de movimiento se debe a Kennard, Pauli y Weyl.El principio de incertidumbre se aplica a situaciones en las que un experimentador tiene la opción de medir una de dos cantidades "canónicamente conjugadas", como la posición y el momento de una partícula. De acuerdo con el principio de incertidumbre, no importa cómo se prepare la partícula, no es posible hacer una predicción precisa para las dos medidas alternativas: si el resultado de la medida de la posición se vuelve más seguro, el resultado de la medida del momento se convierte en menos, y viceversa. Un estado coherente minimiza la incertidumbre general en la medida en que lo permite la mecánica cuántica.La óptica cuántica utiliza estados coherentes para los modos del campo electromagnético. Existe una compensación, que recuerda a la relación de incertidumbre de posición-momento, entre las mediciones de la amplitud de una onda electromagnética y su fase. Esto a veces se expresa informalmente en términos de la incertidumbre en el número de fotones presentes en la onda electromagnética, { estilo de visualización  Delta N}, y la incertidumbre en la fase de la onda, { estilo de visualización  Delta  phi}. Sin embargo, esta no puede ser una relación de incertidumbre del tipo Kennard-Pauli-Weyl, ya que a diferencia de la posición y el momento, la fase fino puede ser representado por un operador hermitiano.

Modelo de Bose-Einstein de un gas fotónico

En 1924, Satyendra Nath Bose derivó la ley de radiación de cuerpo negro de Planck sin usar electromagnetismo, sino usando una modificación del conteo de grano grueso del espacio de fase. Einstein demostró que esta modificación equivale a suponer que los fotones son rigurosamente idénticos y que implicaba una "misteriosa interacción no local", entendida ahora como el requisito para un estado mecánico cuántico simétrico. Este trabajo condujo al concepto de estados coherentes y al desarrollo del láser. En los mismos artículos, Einstein extendió el formalismo de Bose a las partículas materiales (bosones) y predijo que se condensarían en su estado cuántico más bajo a temperaturas lo suficientemente bajas; esta condensación de Bose-Einstein se observó experimentalmente en 1995.Más tarde, Lene Hau lo utilizó para reducir la velocidad y luego detener por completo la luz en 1999 y 2001.

La visión moderna sobre esto es que los fotones son, en virtud de su espín entero, bosones (a diferencia de los fermiones con espín semientero). Por el teorema de la estadística de espín, todos los bosones obedecen a la estadística de Bose-Einstein (mientras que todos los fermiones obedecen a la estadística de Fermi-Dirac).

Emisión estimulada y espontánea

En 1916, Albert Einstein demostró que la ley de radiación de Planck podría derivarse de un tratamiento estadístico semiclásico de fotones y átomos, lo que implica un vínculo entre las tasas a las que los átomos emiten y absorben fotones. La condición se deriva de la suposición de que las funciones de emisión y absorción de radiación por parte de los átomos son independientes entre sí, y que el equilibrio térmico se realiza mediante la interacción de la radiación con los átomos. Considere una cavidad en equilibrio térmico con todas sus partes y llena de radiación electromagnética y que los átomos puedan emitir y absorber esa radiación. El equilibrio térmico requiere que la densidad de energía rho(nu)de fotones con frecuencia nu(que es proporcional a su densidad numérica) es, en promedio, constante en el tiempo; por lo tanto, la velocidad a la que se emiten los fotones de cualquier frecuencia particular debe ser igual a la velocidad a la que se absorben.

Einstein comenzó postulando relaciones de proporcionalidad simples para las diferentes velocidades de reacción involucradas. En su modelo, la tasa R_{ji}para que un sistema absorba un fotón de frecuencia nuy la transición de una energía más baja E_{j}a una energía superior E_{yo}es proporcional al numero Nueva Jersey}de átomos con energía E_{j}y a la densidad de energía rho(nu)de fotones ambientales de esa frecuencia, 
R_{ji}=N_{j} B_{ji} rho(nu) !

donde B_{ji}es la constante de velocidad de absorción. Para el proceso inverso, existen dos posibilidades: la emisión espontánea de un fotón o la emisión de un fotón iniciada por la interacción del átomo con un fotón que pasa y el retorno del átomo al estado de menor energía. Siguiendo el enfoque de Einstein, la tasa correspondiente R_{ij}para la emisión de fotones de frecuencia nuy la transición de una energía superior E_{yo}a una energía más baja E_{j}es 
R_{ij}=N_{i} A_{ij} + N_{i} B_{ij} rho(nu) !

donde A_{ij}es la constante de velocidad para emitir un fotón espontáneamente, y B_{ij}es la constante de velocidad de las emisiones en respuesta a los fotones ambientales (emisión inducida o estimulada). En el equilibrio termodinámico, el número de átomos en estado iy los que están en estado jdebe, en promedio, ser constante; por lo tanto, las tasas R_{ji}y R_{ij}debe ser igual. Además, por argumentos análogos a la derivación de las estadísticas de Boltzmann, la razón de n_{i}y Nueva Jersey}es {displaystyle g_{i}/g_{j}exp {(E_{j}-E_{i})/(kT)},}donde soldado americano}y g_{j}son la degeneración del estado iy el de j, respectivamente, E_{yo}y E_{j}sus energías, kla constante de Boltzmann y Tla temperatura del sistema. De esto se deduce fácilmente que g_iB_{ij}=g_jB_{ji}y 
A_{ij}=frac{8 pi h nu^{3}}{c^{3}} B_{ij}.

Él A_{ij}y B_{ij}se conocen colectivamente como los coeficientes de Einstein.

Einstein no pudo justificar completamente sus ecuaciones de tasa, pero afirmó que debería ser posible calcular los coeficientes A_{ij}, B_{ji}y B_{ij}una vez que los físicos habían obtenido "la mecánica y la electrodinámica modificadas para adaptarse a la hipótesis cuántica". No mucho después, en 1926, Paul Dirac derivó el B_{ij}constantes de velocidad utilizando un enfoque semiclásico y, en 1927, logró derivar todas las constantes de velocidad a partir de primeros principios dentro del marco de la teoría cuántica. El trabajo de Dirac fue la base de la electrodinámica cuántica, es decir, la cuantización del propio campo electromagnético. El enfoque de Dirac también se denomina segunda cuantización o teoría cuántica de campos; Los tratamientos mecánicos cuánticos anteriores solo tratan las partículas materiales como mecánica cuántica, no como campo electromagnético.

Einstein estaba preocupado por el hecho de que su teoría parecía incompleta, ya que no determinaba la dirección de un fotón emitido espontáneamente. Newton consideró por primera vez una naturaleza probabilística del movimiento de las partículas de luz en su tratamiento de la birrefringencia y, de manera más general, de la división de los haces de luz en las interfaces en un haz transmitido y un haz reflejado. Newton planteó la hipótesis de que las variables ocultas en la partícula de luz determinaban cuál de los dos caminos tomaría un único fotón. De manera similar, Einstein esperaba una teoría más completa que no dejara nada al azar, comenzando su separación de la mecánica cuántica. Irónicamente, la interpretación probabilística de la función de onda de Max Born se inspiró en el trabajo posterior de Einstein en busca de una teoría más completa.

Teoría cuántica de campos

Cuantización del campo electromagnético.

En 1910, Peter Debye derivó la ley de radiación de cuerpo negro de Planck a partir de una suposición relativamente simple. Descompuso el campo electromagnético en una cavidad en sus modos de Fourier y supuso que la energía en cualquier modo era un múltiplo entero de hnu, donde nues la frecuencia del modo electromagnético. La ley de Planck de la radiación del cuerpo negro se sigue inmediatamente como una suma geométrica. Sin embargo, el enfoque de Debye no proporcionó la fórmula correcta para las fluctuaciones de energía de la radiación del cuerpo negro, que Einstein dedujo en 1909.

En 1925, Born, Heisenberg y Jordan reinterpretaron de manera clave el concepto de Debye. Como puede demostrarse clásicamente, los modos de Fourier del campo electromagnético, un conjunto completo de ondas planas electromagnéticas indexadas por su vector de onda ky su estado de polarización, son equivalentes a un conjunto de osciladores armónicos simples desacoplados. Tratados mecánicamente cuánticamente, se sabe que los niveles de energía de tales osciladores son E=nhnu, donde nues la frecuencia del oscilador. El nuevo paso clave fue identificar un modo electromagnético con energía E=nhnucomo estado con nortefotones, cada uno de energía hnu. Este enfoque proporciona la fórmula de fluctuación de energía correcta.

Dirac llevó esto un paso más allá. Trató la interacción entre una carga y un campo electromagnético como una pequeña perturbación que induce transiciones en los estados de los fotones, cambiando el número de fotones en los modos, mientras conserva la energía y el momento en general. Dirac fue capaz de derivar el de Einstein A_{ij}y B_{ij}coeficientes de primeros principios, y mostró que la estadística de fotones de Bose-Einstein es una consecuencia natural de cuantificar correctamente el campo electromagnético (el razonamiento de Bose fue en la dirección opuesta; derivó la ley de radiación de cuerpo negro de Planck asumiendo estadísticas B-E). En la época de Dirac, aún no se sabía que todos los bosones, incluidos los fotones, debían obedecer a las estadísticas de Bose-Einstein.

La teoría de la perturbación de segundo orden de Dirac puede involucrar fotones virtuales, estados intermedios transitorios del campo electromagnético; las interacciones eléctricas y magnéticas estáticas están mediadas por tales fotones virtuales. En tales teorías cuánticas de campos, la amplitud de probabilidad de los eventos observables se calcula sumando todos los posibles pasos intermedios, incluso los que no son físicos; por lo tanto, los fotones virtuales no están obligados a satisfacer E=pc, y puede tener estados de polarización adicionales; Según el calibre utilizado, los fotones virtuales pueden tener tres o cuatro estados de polarización, en lugar de los dos estados de los fotones reales. Aunque estos fotones virtuales transitorios nunca se pueden observar, contribuyen de manera mensurable a las probabilidades de eventos observables. De hecho, tales cálculos de perturbaciones de segundo orden y de orden superior pueden dar contribuciones aparentemente infinitas a la suma. Dichos resultados no físicos se corrigen utilizando la técnica de renormalización.

Otras partículas virtuales también pueden contribuir a la suma; por ejemplo, dos fotones pueden interactuar indirectamente a través de pares virtuales de electrones y positrones. Tal dispersión fotón-fotón (ver física de dos fotones), así como la dispersión electrón-fotón, está destinada a ser uno de los modos de operación del acelerador de partículas planeado, el Colisionador Lineal Internacional.

En la notación física moderna, el estado cuántico del campo electromagnético se escribe como un estado de Fock, un producto tensorial de los estados para cada modo electromagnético. |n_{k_0}rangleotimes|n_{k_1}rangleotimesdotsotimes|n_{k_n}rangledots

donde |n_{k_i}rangorepresenta el estado en que , n_{k_i}los fotones están en el modo k_{yo}. En esta notación, la creación de un nuevo fotón en modo k_{yo}(por ejemplo, emitido por una transición atómica) se escribe como |n_{k_i}rangle rightarrow|n_{k_i}+1rangle. Esta notación simplemente expresa el concepto de Born, Heisenberg y Jordan descrito anteriormente, y no agrega ninguna física.

Como un bosón de calibre

El campo electromagnético puede entenderse como un campo de calibre, es decir, como un campo que resulta de exigir que una simetría de calibre se mantenga independientemente en cada posición en el espacio-tiempo. Para el campo electromagnético, esta simetría de calibre es la simetría abeliana U(1) de números complejos de valor absoluto 1, que refleja la capacidad de variar la fase de un campo complejo sin afectar las funciones observables o de valor real hechas a partir de él, como la energía o el lagrangiano.

Los cuantos de un campo de norma abeliano deben ser bosones sin carga y sin masa, siempre que no se rompa la simetría; por lo tanto, se predice que el fotón no tendrá masa y tendrá carga eléctrica cero y espín entero. La forma particular de la interacción electromagnética especifica que el fotón debe tener spin ±1; por lo tanto, su helicidad debe ser pm hbar. Estos dos componentes de espín corresponden a los conceptos clásicos de luz polarizada circularmente hacia la derecha y hacia la izquierda. Sin embargo, los fotones virtuales transitorios de la electrodinámica cuántica también pueden adoptar estados de polarización no físicos.

En el modelo estándar prevaleciente de la física, el fotón es uno de los cuatro bosones de calibre en la interacción electrodébil; los otros tres se denotan W, W y Z y son responsables de la interacción débil. A diferencia del fotón, estos bosones de calibre tienen masa, debido a un mecanismo que rompe su simetría de calibre SU(2). La unificación del fotón con los bosones de calibre W y Z en la interacción electrodébil fue realizada por Sheldon Glashow, Abdus Salam y Steven Weinberg, por lo que recibieron el Premio Nobel de física en 1979. Los físicos continúan formulando hipótesis sobre grandes teorías unificadas que conectan estos cuatro bosones de calibre con los ocho bosones de calibre de gluones de la cromodinámica cuántica; sin embargo, las predicciones clave de estas teorías, como la descomposición de protones, no se han observado experimentalmente.

Propiedades hadrónicas

Las mediciones de la interacción entre fotones energéticos y hadrones muestran que la interacción es mucho más intensa de lo esperado por la interacción de meros fotones con la carga eléctrica del hadrón. Además, la interacción de fotones energéticos con protones es similar a la interacción de fotones con neutrones a pesar de que las estructuras de carga eléctrica de protones y neutrones son sustancialmente diferentes. Se desarrolló una teoría llamada Vector Meson Dominance (VMD) para explicar este efecto. Según VMD, el fotón es una superposición del fotón electromagnético puro que interactúa solo con cargas eléctricas y mesones vectoriales.Sin embargo, si se prueba experimentalmente a distancias muy cortas, la estructura intrínseca del fotón se reconoce como un flujo de componentes de quarks y gluones, cuasi libre según la libertad asintótica en QCD y descrita por la función de estructura del fotón. Una comparación exhaustiva de datos con predicciones teóricas se presentó en una revisión en 2000.

Contribuciones a la masa de un sistema

La energía de un sistema que emite un fotón se reduce por la energía midel fotón medido en el marco de reposo del sistema emisor, lo que puede resultar en una reducción en la masa en la cantidad {E}/{c^2}. De manera similar, la masa de un sistema que absorbe un fotón aumenta en una cantidad correspondiente. Como aplicación, el balance de energía de las reacciones nucleares que involucran fotones se escribe comúnmente en términos de las masas de los núcleos involucrados y en términos de la forma {E}/{c^2}para los fotones gamma (y para otras energías relevantes, como la energía de retroceso de los núcleos).

Este concepto se aplica en predicciones clave de la electrodinámica cuántica (QED, ver arriba). En esa teoría, la masa de los electrones (o, más generalmente, los leptones) se modifica al incluir las contribuciones de masa de los fotones virtuales, en una técnica conocida como renormalización. Tales "correcciones radiativas" contribuyen a una serie de predicciones de QED, como el momento dipolar magnético de los leptones, el cambio de Lamb y la estructura hiperfina de los pares de leptones unidos, como el muonio y el positronio.

Dado que los fotones contribuyen al tensor de tensión-energía, ejercen una atracción gravitacional sobre otros objetos, según la teoría de la relatividad general. Por el contrario, los fotones se ven afectados por la gravedad; sus trayectorias normalmente rectas pueden doblarse por el espacio-tiempo deformado, como en las lentes gravitacionales, y sus frecuencias pueden reducirse moviéndose a un potencial gravitacional más alto, como en el experimento de Pound-Rebka. Sin embargo, estos efectos no son específicos de los fotones; Se pronosticarían exactamente los mismos efectos para las ondas electromagnéticas clásicas.

En la materia

La luz que viaja a través de la materia transparente lo hace a una velocidad menor que c, la velocidad de la luz en el vacío. El factor por el cual la velocidad disminuye se llama índice de refracción del material. En una imagen de onda clásica, la desaceleración puede explicarse porque la luz induce la polarización eléctrica en la materia, la materia polarizada irradia nueva luz y esa nueva luz interfiere con la onda de luz original para formar una onda retardada. En una imagen de partículas, la desaceleración puede describirse como una combinación del fotón con excitaciones cuánticas de la materia para producir cuasipartículas conocidas como polariton (consulte esta lista para conocer otras cuasipartículas); este polaritón tiene una masa efectiva distinta de cero, lo que significa que no puede viajar a c. La luz de diferentes frecuencias puede viajar a través de la materia a diferentes velocidades; esto se llama dispersión (que no debe confundirse con dispersión). En algunos casos, puede resultar en velocidades de luz extremadamente lentas en la materia. Los efectos de las interacciones de los fotones con otras cuasipartículas pueden observarse directamente en la dispersión Raman y la dispersión Brillouin.

Los fotones pueden ser dispersados ​​por la materia. Por ejemplo, los fotones se involucran en tantas colisiones en el camino desde el núcleo del Sol que la energía radiante puede tardar alrededor de un millón de años en llegar a la superficie; sin embargo, una vez en el espacio abierto, un fotón tarda solo 8,3 minutos en llegar a la Tierra.

Los fotones también pueden ser absorbidos por núcleos, átomos o moléculas, provocando transiciones entre sus niveles de energía. Un ejemplo clásico es la transición molecular del retinal (C 20 H 28 O), que es responsable de la visión, como lo descubrió en 1958 el bioquímico ganador del premio Nobel George Wald y sus colaboradores. La absorción provoca una isomerización cis-trans que, en combinación con otras transiciones similares, se traduce en impulsos nerviosos. La absorción de fotones puede incluso romper enlaces químicos, como en la fotodisociación del cloro; este es el tema de la fotoquímica.

Aplicaciones tecnológicas

Los fotones tienen muchas aplicaciones en tecnología. Estos ejemplos se eligen para ilustrar aplicaciones de fotones per se, en lugar de dispositivos ópticos generales como lentes, etc. que podrían operar bajo una teoría clásica de la luz. El láser es una aplicación extremadamente importante y se trata más arriba en emisión estimulada.

Los fotones individuales se pueden detectar por varios métodos. El tubo fotomultiplicador clásico explota el efecto fotoeléctrico: un fotón de suficiente energía golpea una placa de metal y libera un electrón, iniciando una avalancha de electrones cada vez más amplia. Los chips de dispositivos semiconductores de carga acoplada utilizan un efecto similar: un fotón incidente genera una carga en un condensador microscópico que puede detectarse. Otros detectores, como los contadores Geiger, utilizan la capacidad de los fotones para ionizar las moléculas de gas contenidas en el dispositivo, provocando un cambio detectable en la conductividad del gas.

Fórmula energética de Planck E=hnuLos ingenieros y químicos lo utilizan a menudo en el diseño, tanto para calcular el cambio de energía resultante de la absorción de un fotón como para determinar la frecuencia de la luz emitida por una emisión de fotón determinada. Por ejemplo, el espectro de emisión de una lámpara de descarga de gas se puede alterar llenándola con (mezclas de) gases con diferentes configuraciones de nivel de energía electrónica.

Bajo algunas condiciones, una transición de energía puede ser excitada por "dos" fotones que individualmente serían insuficientes. Esto permite una microscopía de mayor resolución, porque la muestra absorbe energía solo en el espectro donde dos haces de diferentes colores se superponen significativamente, lo que puede hacerse mucho más pequeño que el volumen de excitación de un solo haz (ver microscopía de excitación de dos fotones). Además, estos fotones causan menos daño a la muestra, ya que son de menor energía.

En algunos casos, se pueden acoplar dos transiciones de energía de modo que, cuando un sistema absorbe un fotón, otro sistema cercano "roba" su energía y vuelve a emitir un fotón de una frecuencia diferente. Esta es la base de la transferencia de energía por resonancia de fluorescencia, una técnica que se utiliza en biología molecular para estudiar la interacción de proteínas adecuadas.

Varios tipos diferentes de generadores de números aleatorios de hardware implican la detección de fotones individuales. En un ejemplo, por cada bit de la secuencia aleatoria que se va a producir, se envía un fotón a un divisor de haz. En tal situación, hay dos posibles resultados de igual probabilidad. El resultado real se utiliza para determinar si el siguiente bit de la secuencia es "0" o "1".

Computación y óptica cuántica

Se ha dedicado mucha investigación a las aplicaciones de los fotones en el campo de la óptica cuántica. Los fotones parecen muy adecuados para ser elementos de una computadora cuántica extremadamente rápida, y el entrelazamiento cuántico de fotones es un foco de investigación. Los procesos ópticos no lineales son otra área de investigación activa, con temas como la absorción de dos fotones, la modulación de fase propia, la inestabilidad modulacional y los osciladores paramétricos ópticos. Sin embargo, tales procesos generalmente no requieren la suposición de fotones per se; a menudo se pueden modelar tratando los átomos como osciladores no lineales. El proceso no lineal de conversión descendente paramétrica espontánea se usa a menudo para producir estados de un solo fotón. Finalmente, los fotones son esenciales en algunos aspectos de la comunicación óptica, especialmente para la criptografía cuántica.

La física de dos fotones estudia las interacciones entre fotones, que son raras. En 2018, los investigadores del MIT anunciaron el descubrimiento de tripletes de fotones unidos, que pueden involucrar polaritones.