Función delta de Dirac

Compartir Imprimir Citar
Función generalizada cuyo valor es cero en todas partes excepto en cero
Representación esquemática del delta Dirac por una línea subida por una flecha. La altura de la flecha suele estar destinada a especificar el valor de cualquier constante multiplicadora, que dará el área bajo la función. La otra convención es escribir el área al lado de la punta de flecha.
El delta Dirac como límite a→ → 0{displaystyle ato 0} (en el sentido de las distribuciones) de la secuencia de distribuciones normales centradas en cero δ δ a()x)=1SilencioaSilencioπ π e− − ()x/a)2{displaystyle delta _{a}(x)={frac {1}{l}{l}{l}}{l}}{l}{l}}{l}} {l}}}} {fn}}}}} {fn}}}}}} {fn}}}}}} { {fnK}}e^{-(x/a)}

En matemáticas, la distribución delta de Dirac (distribución δ), también conocido como impulso unitario, es una función o distribución generalizada sobre los números reales, cuyo valor es cero en todas partes excepto en cero, y cuya integral sobre toda la línea real es igual a uno.

La comprensión actual del impulso de unidad es como una funcionalidad lineal que mapea cada función continua (por ejemplo, f()x){displaystyle f(x)}) a su valor en cero de su dominio (f()0){displaystyle f(0)}), o como el límite débil de una secuencia de funciones de choque (por ejemplo, δ δ ()x)=limb→ → 01SilenciobSilencioπ π e− − ()x/b)2{displaystyle delta (x)=lim _{bto 0}{frac {1}{ minusválido en la vida {sqrt {pi}}}e^{-(x/b)}}}}}}), que son cero sobre la mayor parte de la línea real, con un pico alto en el origen. Por lo tanto, las funciones de bomba se llaman a veces distribuciones delta "aproximadas" o "nascentes".

La función delta fue presentada por el físico Paul Dirac como una herramienta para la normalización de vectores de estado. También tiene usos en la teoría de la probabilidad y el procesamiento de señales. Su validez fue discutida hasta que Laurent Schwartz desarrolló la teoría de las distribuciones donde se define como una forma lineal que actúa sobre funciones.

La función delta de Kronecker, que generalmente se define en un dominio discreto y toma los valores 0 y 1, es el análogo discreto de la función delta de Dirac.

Motivación y visión general

La gráfica del delta de Dirac generalmente se considera que sigue el eje x completo y el eje y positivo. El delta de Dirac se utiliza para modelar una función de punta alta y estrecha (un impulso) y otras abstracciones similares, como una carga puntual, una masa puntual o un punto de electrones. Por ejemplo, para calcular la dinámica del golpe de una bola de billar, se puede aproximar la fuerza del impacto mediante un delta de Dirac. Al hacerlo, uno no solo simplifica las ecuaciones, sino que también puede calcular el movimiento de la pelota considerando solo el impulso total de la colisión sin un modelo detallado de toda la transferencia de energía elástica a niveles subatómicos (por ejemplo).

Para ser específico, suponga que una bola de billar está en reposo. At time t=0{displaystyle t=0} es golpeada por otra bola, impartiéndola con un impulso P{displaystyle P}, dentro kg s− − 1{displaystyle {text{kg m s}}{-1}. El intercambio de ímpetu no es en realidad instantáneo, siendo mediado por procesos elásticos a nivel molecular y subatámico, pero para fines prácticos es conveniente considerar que la transferencia de energía es efectivamente instantánea. Por consiguiente, la fuerza es Pδ δ ()t){displaystyle P,delta (t)}. (Las unidades de δ δ ()t){displaystyle delta (t)} son s− − 1{displaystyle mathrm {} {fn}.)

Para modelar esta situación con mayor rigor, supongamos que la fuerza se distribuye uniformemente en un intervalo de tiempo pequeño Δ Δ t=[0,T]{displaystyle Delta t=[0,T]. Eso es,

<math alttext="{displaystyle F_{Delta t}(t)={begin{cases}P/Delta t&0FΔ Δ t()t)={}P/Δ Δ t0.t≤ ≤ T,0de otra manera.{displaystyle F_{Delta t}(t)={begin{cases}P/Delta t sensibletleq T,nt {text{otherwise}}end{cases}}}}}<img alt="{displaystyle F_{Delta t}(t)={begin{cases}P/Delta t&0

Entonces el impulso en cualquier momento t se encuentra por integración:

p()t)=∫ ∫ 0tFΔ Δ t()τ τ )dτ τ ={}Pt≥ ≥ TPt/Δ Δ t0≤ ≤ t≤ ≤ T0De lo contrario.{displaystyle p(t)=int _{0}{t}F_{Delta t}(tau),mathrm {d}tau ={begin{cases}P esquinatgeq TP,t/Delta t golpe0leq tleq T limite{text{otherwise.}end{cases}}}}

Ahora, la situación modelo de una transferencia instantánea de impulso requiere tomar el límite como Δ Δ t→ → 0{displaystyle Delta tto 0}, dando un resultado en todas partes excepto en 0:

0\0&tp()t)={}Pt■00t.0.{displaystyle p(t)={begin{cases}P sentíat confianza0 limitada0.end{cases}}0\0&t

Aquí las funciones FΔ Δ t{displaystyle F_{Delta t} son considerados como aproximaciones útiles a la idea de la transferencia instantánea del impulso.

La función delta nos permite construir un límite idealizado de estas aproximaciones. Lamentablemente, el límite real de las funciones (en el sentido de la convergencia puntual) limΔ Δ t→ → 0FΔ Δ t{textstyle lim _{Delta tto ¿Qué? es cero en todas partes, pero un solo punto, donde es infinito. Para tener el sentido adecuado delta Dirac, deberíamos insistir en que la propiedad

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO FΔ Δ t()t)dt=P,{displaystyle int _{-infty }{infty }F_{Delta t}(t),mathrm {d} t=P,}

que tiene para todos 0}" xmlns="http://www.w3.org/1998/Math/MathML">Δ Δ t■0{displaystyle Delta t fiel0}0" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/0ce341dd9e80a38fa8665b0be0ae5e1b42f16e70" style="vertical-align: -0.338ex; width:7.036ex; height:2.176ex;"/>, debe seguir manteniendo en el límite. Así que, en la ecuación F()t)=Pδ δ ()t)=limΔ Δ t→ → 0FΔ Δ t()t){textstyle F(t)=P,delta (t)=lim _{Delta tto No., se entiende que el límite siempre se toma fuera de la integral.

En matemáticas aplicadas, como hemos hecho aquí, la función delta a menudo se manipula como una especie de límite (un límite débil) de una secuencia de funciones, cada miembro de la cual tiene un pico alto en el origen: por ejemplo, una secuencia de distribuciones gaussianas centradas en el origen con varianza que tiende a cero.

La delta de Dirac no es realmente una función, al menos no una habitual con dominio y rango en números reales. Por ejemplo, los objetos f(x) = δ(x) y g(x) = 0 son iguales en todas partes excepto en x = 0 pero tienen integrales que son diferentes. Según la teoría de integración de Lebesgue, si f y g son funciones tales que f = g casi en todas partes, entonces f es integrable si y solo si g es integrable y las integrales de f y g son idénticos. Un enfoque riguroso para considerar la función delta de Dirac como un objeto matemático por derecho propio requiere la teoría de la medida o la teoría de las distribuciones.

Historia

Joseph Fourier presentó lo que ahora se llama el teorema integral de Fourier en su tratado Théorie analytique de la chaleur en la forma:

f()x)=12π π ∫ ∫ − − JUEGO JUEGO JUEGO JUEGO dα α f()α α )∫ ∫ − − JUEGO JUEGO JUEGO JUEGO dp#⁡ ⁡ ()px− − pα α ),{displaystyle f(x)={1}{2pi }int _{-infty }^{infty }\ dalpha ,f(alpha)int _{-infty }^{infty }dpcos(px-palpha)}}

lo que equivale a la introducción de la función δ en la forma:

δ δ ()x− − α α )=12π π ∫ ∫ − − JUEGO JUEGO JUEGO JUEGO dp#⁡ ⁡ ()px− − pα α ).{displaystyle delta (x-alpha)={frac {1}{2pi}int _{-infty }{infty }dpcos(px-palpha).}

Más tarde, Augustin Cauchy expresó el teorema usando exponenciales:

f()x)=12π π ∫ ∫ − − JUEGO JUEGO JUEGO JUEGO eipx()∫ ∫ − − JUEGO JUEGO JUEGO JUEGO e− − ipα α f()α α )dα α )dp.{displaystyle f(x)={2pi }int _{-infty }{infty } e^{ipx}left(int _{-infty } {infty }e^{-ipalpha }f(alpha),dalpha right)

Cauchy señaló que, en algunas circunstancias, el orden de integración es significativo en este resultado (en contraste con el teorema de Fubini).

Como se justifica utilizando la teoría de las distribuciones, la ecuación de Cauchy se puede reorganizar para parecerse a la formulación original de Fourier y exponer la función δ como

f()x)=12π π ∫ ∫ − − JUEGO JUEGO JUEGO JUEGO eipx()∫ ∫ − − JUEGO JUEGO JUEGO JUEGO e− − ipα α f()α α )dα α )dp=12π π ∫ ∫ − − JUEGO JUEGO JUEGO JUEGO ()∫ ∫ − − JUEGO JUEGO JUEGO JUEGO eipxe− − ipα α dp)f()α α )dα α =∫ ∫ − − JUEGO JUEGO JUEGO JUEGO δ δ ()x− − α α )f()α α )dα α ,{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} }{infty }infty } {infty } {infty }e^{-ipx}e^{-ipalpha },dpright)f(alpha),dalpha =int _{-infty }{infty }delta (x-alphad

donde la función δ se expresa como

δ δ ()x− − α α )=12π π ∫ ∫ − − JUEGO JUEGO JUEGO JUEGO eip()x− − α α )dp.{displaystyle delta (x-alpha)={frac {1}{2pi}int _{-infty }{infty }e^{ip(x-alpha)},dp.}

Una interpretación rigurosa de la forma exponencial y las diversas limitaciones sobre la función f necesarias para su aplicación se extendió a lo largo de varios siglos. Los problemas con una interpretación clásica se explican de la siguiente manera:

El mayor inconveniente de la transformación clásica de Fourier es una clase bastante estrecha de funciones (originals) para las cuales puede ser computada eficazmente. Es decir, es necesario que estas funciones disminuyan lo suficientemente rápido a cero (en el barrio de la infinidad) para garantizar la existencia de la integral Fourier. Por ejemplo, la transformación Fourier de funciones tan simples como polinomios no existe en el sentido clásico. La extensión de la transformación clásica Fourier a las distribuciones agrandó considerablemente la clase de funciones que podrían transformarse y esto removió muchos obstáculos.

Otros desarrollos incluyeron la generalización de la integral de Fourier, "comenzando con la innovadora teoría L2 de Plancherel (1910), continuando con Wiener&# 39; y los trabajos de Bochner (alrededor de 1930) y culminando con la fusión en la teoría de las distribuciones de L. Schwartz (1945)...", y que condujo al desarrollo formal de Dirac función delta.

Una fórmula infinitesimal para una función delta de impulso unitario infinitamente alta (versión infinitesimal de la distribución de Cauchy) aparece explícitamente en un texto de 1827 de Augustin Louis Cauchy. Siméon Denis Poisson consideró el tema en relación con el estudio de la propagación de ondas, al igual que Gustav Kirchhoff algo más tarde. Kirchhoff y Hermann von Helmholtz también introdujeron el impulso unitario como límite de las gaussianas, que también correspondía a la noción de Lord Kelvin de una fuente de calor puntual. A finales del siglo XIX, Oliver Heaviside utilizó series formales de Fourier para manipular el impulso unitario. La función delta de Dirac como tal fue presentada por Paul Dirac en su artículo de 1927 La interpretación física de la dinámica cuántica y utilizada en su libro de texto Los principios de la mecánica cuántica. Lo llamó la "función delta" ya que lo usó como un análogo continuo del delta discreto de Kronecker.

Definiciones

El delta de Dirac se puede considerar vagamente como una función en la línea real que es cero en todas partes excepto en el origen, donde es infinito,

δ δ ()x)≃ ≃ {}+JUEGO JUEGO ,x=00,xل ل 0{displaystyle delta (x)simeq {begin{cases}+infty recíprocax=0, limitadaxneq 0end{cases}}

y que también está restringida para satisfacer la identidad

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO δ δ ()x)dx=1.{displaystyle int _{-infty }infty }delta (x),mathrm {d} x=1.}

Esto es simplemente una caracterización heurística. La delta de Dirac no es una función en el sentido tradicional ya que ninguna función definida sobre los números reales tiene estas propiedades. La función delta de Dirac se puede definir rigurosamente como una distribución o como una medida.

Como medida

Una forma de capturar rigurosamente la noción de la función delta de Dirac es definir una medida, llamada medida de Dirac, que acepta un subconjunto A de la línea real R como argumento y devuelve δ(A) = 1 si 0 ∈ A, y δ(A) = 0 de lo contrario. Si la función delta se conceptualiza como un modelo de masa puntual idealizada en 0, entonces δ(A) representa la masa contenida en el conjunto A. Uno puede entonces definir la integral contra δ como la integral de una función contra esta distribución masiva. Formalmente, la integral de Lebesgue proporciona el dispositivo analítico necesario. La integral de Lebesgue con respecto a la medida δ satisface

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()x)δ δ ()dx)=f()0){displaystyle int _{-infty }{infty }f(x),delta (mathrm {d} x)=f(0)}

para todas las funciones continuas admitidas de forma compacta f. La medida δ no es absolutamente continua con respecto a la medida de Lebesgue; de hecho, es una medida singular. En consecuencia, la medida delta no tiene derivada de Radon-Nikodym (con respecto a la medida de Lebesgue), ninguna función verdadera para la cual la propiedad

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()x)δ δ ()x)dx=f()0){displaystyle int _{-infty }{infty }f(x),delta (x),mathrm {d} x=f(0)}

espera. Como resultado, la última notación es un abuso conveniente de la notación y no una integral estándar (Riemann o Lebesgue).

Como medida de probabilidad en R, la medida delta se caracteriza por su función de distribución acumulativa, que es la función escalón unitario.

<math alttext="{displaystyle H(x)={begin{cases}1&{text{if }}xgeq 0\0&{text{if }}xH()x)={}1six≥ ≥ 00six.0.{displaystyle H(x)={begin{cases}1⁄4text{if }xgeq 0 âtext{if }x {end{cases}<img alt="H(x)={begin{cases}1&{text{if }}xgeq 0\0&{text{if }}x

Esto significa que H(x) es la integral de la función indicadora acumulativa 1(−∞, x] con respecto a la medida δ; a saber,

H()x)=∫ ∫ R1()− − JUEGO JUEGO ,x]()t)δ δ ()dt)=δ δ ()− − JUEGO JUEGO ,x],{displaystyle H(x)=int _{mathbf {R}mathbf {1} _{(-inftyx]}(t),delta (mathrm {d} t)=delta (-inftyx],}

siendo este último la medida de este intervalo; más formalmente, δ((−∞, x]). Así, en particular, la integración de la función delta contra una función continua puede entenderse correctamente como una integral de Riemann-Stieltjes:

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()x)δ δ ()dx)=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()x)dH()x).{displaystyle int _{-infty }{infty }f(x),delta (mathrm {d} x)=int _{-infty }{infty }f(x),mathrm {d} H(x).}

Todos los momentos superiores de δ son cero. En particular, la función característica y la función generadora de momentos son ambas iguales a uno.

Como distribución

En la teoría de las distribuciones, una función generalizada no se considera una función en sí misma, sino solo cómo afecta a otras funciones cuando se "integra" contra ellos. De acuerdo con esta filosofía, para definir correctamente la función delta, basta con decir lo que la "integral" de la función delta está en contra de un valor suficientemente "bueno" función de prueba φ. Las funciones de prueba también se conocen como funciones de choque. Si la función delta ya se entiende como una medida, entonces la integral de Lebesgue de una función de prueba contra esa medida proporciona la integral necesaria.

Un espacio típico de funciones de prueba consiste en todas las funciones suaves en R con soporte compacto que tienen tantas derivadas como sea necesario. Como distribución, el delta de Dirac es un funcional lineal en el espacio de funciones de prueba y está definido por

δ δ [φ φ ]=φ φ ()0){displaystyle delta [varphi]=varphi (0)}

()1)

para cada función de prueba φ φ {displaystyle varphi }.

Para que δ sea propiamente una distribución, debe ser continua en una topología adecuada en el espacio de funciones de prueba. En general, para que un funcional lineal S sobre el espacio de funciones de prueba defina una distribución, es necesario y suficiente que, por cada entero positivo N haya un entero MN y una constante CN tal que para cada función de prueba φ, se tiene la desigualdad

SilencioS[φ φ ]Silencio≤ ≤ CN.. k=0MNSupx▪ ▪ [− − N,N]Silencioφ φ ()k)()x)Silencio{displaystyle left habitS[varphi "Justo en la vida" C_{N}sum ¿Por qué?

donde sup representa el supremo. Con la distribución δ, se tiene tal desigualdad (con CN = 1) con MN = 0 para todos los n. Así δ es una distribución de orden cero. Es, además, una distribución con soporte compacto (siendo el soporte {0}).

La distribución delta también se puede definir de varias formas equivalentes. Por ejemplo, es la derivada distribucional de la función escalón de Heaviside. Esto significa que para cada función de prueba φ, uno tiene

δ δ [φ φ ]=− − ∫ ∫ − − JUEGO JUEGO JUEGO JUEGO φ φ .()x)H()x)dx.{displaystyle delta [varphi ]=-int _{-infty }varphi '(x),H(x),mathrm {d} x.}

Intuitivamente, si se permitiera la integración por partes, entonces la última integral debería simplificarse a

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO φ φ ()x)H.()x)dx=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO φ φ ()x)δ δ ()x)dx,{displaystyle int _{-infty }infty }varphi (x),H'(x),mathrm {d} x=int _{-infty }infty }varphi (x),delta (x),mathrm {d} x,}

y, de hecho, se permite una forma de integración por partes para la integral de Stieltjes, y en ese caso, uno tiene

− − ∫ ∫ − − JUEGO JUEGO JUEGO JUEGO φ φ .()x)H()x)dx=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO φ φ ()x)dH()x).{displaystyle -int _{-infty }{infty }varphi '(x),H(x),mathrm {d} x=int _{-infty }infty }varphi (x),mathrm {d} H(x).}

En el contexto de la teoría de la medida, la medida de Dirac da lugar a la distribución por integración. Por el contrario, la ecuación (1) define una integral de Daniell en el espacio de todas las funciones continuas soportadas de forma compacta φ que, por el teorema de representación de Riesz, puede representarse como la integral de Lebesgue de φ en relación con alguna medida de radón.

Por lo general, cuando el término "función delta de Dirac" se usa, es en el sentido de distribuciones en lugar de medidas, siendo la medida de Dirac entre varios términos para la noción correspondiente en la teoría de la medida. Algunas fuentes también pueden usar el término distribución delta de Dirac.

Generalizaciones

La función delta se puede definir en el espacio euclidiano n-dimensional Rn como la medida tal que

∫ ∫ Rnf()x)δ δ ()dx)=f()0){displaystyle int _{mathbf {R} }f(mathbf {x}),delta (mathrm {d} mathbf {x})=f(mathbf {0})}

para cada función continua soportada de forma compacta f. Como medida, la función delta n-dimensional es la medida del producto de las funciones delta unidimensionales en cada variable por separado. Así, formalmente, con x = (x1, x2,..., xn), uno tiene

δ δ ()x)=δ δ ()x1)δ δ ()x2)⋯ ⋯ δ δ ()xn).{displaystyle delta (mathbf {x})=delta (x_{1}),delta (x_{2})cdots delta (x_{n}). }

()2)

La función delta también se puede definir en el sentido de distribuciones exactamente como se indicó anteriormente en el caso unidimensional. Sin embargo, a pesar de su uso generalizado en contextos de ingeniería, (2) debe manipularse con cuidado, ya que el producto de las distribuciones solo se puede definir en circunstancias muy limitadas.

La noción de una medida de Dirac tiene sentido en cualquier conjunto. Así, si X es un conjunto, x0X es un punto marcado, y Σ es cualquier álgebra sigma de subconjuntos de X, entonces la medida definida en los conjuntos A ∈ Σ por

δ δ x0()A)={}1six0▪ ▪ A0six0∉ ∉ A{displaystyle delta ################################################################################################################################################################################################################################################################ }x_{0}in A No. Aend{cases}}

es la medida delta o unidad de masa concentrada en x0.

Otra generalización común de la función delta es a una variedad diferenciable donde la mayoría de sus propiedades como distribución también se pueden explotar debido a la estructura diferenciable. La función delta en una variedad M centrada en el punto x0M se define como la siguiente distribución:

δ δ x0[φ φ ]=φ φ ()x0){displaystyle delta _{x_{0}[varphi]=varphi (x_{0}}

()3)

para todas las funciones suaves de valor real compatibles de forma compacta φ en M. Un caso especial común de esta construcción es un caso en el que M es un conjunto abierto en el espacio euclidiano Rn.

En un espacio Hausdorff compacto localmente X, la medida Dirac delta concentrada en un punto x es la medida Radon asociada con la integral Daniell (3) en funciones continuas compatibles compactamente φ. En este nivel de generalidad, el cálculo como tal ya no es posible, sin embargo hay una variedad de técnicas de análisis abstracto disponibles. Por ejemplo, la cartografía x0↦ ↦ δ δ x0{displaystyle x_{0}mapsto delta ¿Qué? es una incrustación continua de X en el espacio de medidas finitas de Radon X, equipado con su vaga topología. Además, el casco convexo de la imagen X bajo este embedding es denso en el espacio de medidas de probabilidad sobre X.

Propiedades

Escalado y simetría

La función delta satisface la siguiente propiedad de escala para un escalar distinto de cero α:

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO δ δ ()α α x)dx=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO δ δ ()u)duSilencioα α Silencio=1Silencioα α Silencio{displaystyle int _{-infty }infty }delta (alpha x),mathrm {d} x=int _{-infty }infty }delta (u),{frac {mathrm {d} u}{alpha Silencio. {1}{4}{4} {4}} {4}} {4}} {4}} {4}}} {4}}}}} {4}}}}}} {fn}}}}} {\Alfa Silencio.

y así

δ δ ()α α x)=δ δ ()x)Silencioα α Silencio.{displaystyle delta (alpha x)={frac {delta (x)}{ vidasalpha tención}}}

()4)

Prueba de propiedad de escala:

δ δ ()α α x)=limb→ → 01SilenciobSilencioπ π e− − ()α α x/b)2desde entoncesbes una variable de muñeco.b=α α c=limc→ → 01Silencioα α cSilencioπ π e− − ()α α x/()α α c))2=limc→ → 01Silencioα α Silencio1SilenciocSilencioπ π e− − ()x/c)2=1Silencioα α Silencioδ δ ()x){fnMicrosoft Sans Serif} {1}{fn} {fnK} {fnK}} {fnK}} {fn}} {fn}} {fn}}} {fn}}} {fn}} {fn}} {fn}} {fnf}}}}}} {f}}}}}{f}}}}{f}}}}}}}}}}}}}}\\\\\\\f}}}}}}}}}\\\\\\\\\fnfn\\\fn\\\\\fnfn\\fn\\fn\\fnfnfnfn\fnfnfnfnfn\fnfn\\fnfn\\fn {fnMicrosoft Sans Serif}} {fnMicroc {1} {fnuncióalfa Silencio}delta (x)end{aligned}}}


En esta prueba, la representación de la función del delta como límite de la secuencia de distribuciones normales centradas en cero δ δ ()x)=limb→ → 01SilenciobSilencioπ π e− − ()x/b)2{displaystyle delta (x)=lim _{bto 0}{frac {1}{ minusválido en la vida {sqrt {pi}}}e^{-(x/b)}}}}}} se utiliza. Esta prueba se puede hacer utilizando otras representaciones de funciones delta como los límites de secuencias de funciones, siempre y cuando éstas sean incluso funciones.

En particular, la función delta es una distribución uniforme (simetría), en el sentido de que

δ δ ()− − x)=δ δ ()x){displaystyle delta (-x)=delta (x)}

que es homogéneo de grado −1.

Propiedades algebraicas

El producto distribucional de δ con x es igual a cero:

xδ δ ()x)=0.{displaystyle x,delta (x)=0.}

Por el contrario, si xf(x) = xg(x), donde f y g son distribuciones, entonces

f()x)=g()x)+cδ δ ()x){displaystyle f(x)=g(x)+cdelta (x)}

para alguna constante c.

Traducción

La integral del delta de Dirac retardado en el tiempo es

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()t)δ δ ()t− − T)dt=f()T).{displaystyle int _{-infty }{infty }f(t),delta (t-T),mathrm {d} t=f(T). }

Esto a veces se denomina propiedad de tamizado o propiedad de muestreo. Se dice que la función delta "tamiza" el valor de f(t) en t = T.

De ahí que el efecto de convolver una función f()t) con el tiempo dirac delta δ δ T()t)=δ δ ()t− − T){displaystyle delta _{T}(t)=delta (t-T)} es a la demora del tiempo f()t) por la misma cantidad. Esto a veces se conoce como cambio de bienes (para no confundir con el propiedad de robo):

()fAlternativa Alternativa δ δ T)()t)=def∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()τ τ )δ δ ()t− − T− − τ τ )dτ τ =∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()τ τ )δ δ ()τ τ − − ()t− − T))dτ τ desde entoncesδ δ ()− − x)=δ δ ()x)4)=f()t− − T).################################################################################################################################################################################################################################################################

Tenga en cuenta que la propiedad de tamizado encuentra el valor de una función centrada en T mientras que la propiedad de desplazamiento devuelve una función retrasada. La propiedad de desplazamiento se mantiene bajo la condición precisa de que f sea una distribución temperada (ver la discusión de la transformada de Fourier a continuación). Como caso especial, por ejemplo, tenemos la identidad (entendida en el sentido de distribución)

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO δ δ ().. − − x)δ δ ()x− − .. )dx=δ δ ().. − − .. ).{displaystyle int _{-infty }infty }delta (xi -x)delta (x-eta),mathrm {d} x=delta (eta -xi). }

Composición con una función

Más generalmente, la distribución delta se puede componer con una función suave g(x) de tal manera que se cumple la fórmula familiar de cambio de variables, que

∫ ∫ Rδ δ ()g()x))f()g()x))Silenciog.()x)Silenciodx=∫ ∫ g()R)δ δ ()u)f()u)du{displaystyle int _{mathbb {R} }delta {bigl (}g(x){bigr)}f{bigl (}g(x){bigr)}left perpetuag'(x)rightmathrm {d} x=int _{g(mathbb {R})}delta (u),f(u)}mathrm}

siempre que g es una función continuamente diferenciable con g′ en ninguna parte cero. Es decir, hay una manera única de asignar significado a la distribución δ δ ∘ ∘ g{displaystyle delta circ g} para que esta identidad tenga todas las funciones de prueba compatibles compactamente f. Por lo tanto, el dominio debe ser roto para excluir el g′ = 0 punto. Esta distribución satisface δ()g()x) = 0 si g no es nada cero, y si no g tiene una verdadera raíz x0, entonces

δ δ ()g()x))=δ δ ()x− − x0)Silenciog.()x0)Silencio.{displaystyle delta (g(x))={frac {delta (x-x_{0}}{ vidasg'(x_{0}

Por lo tanto, es natural definir la composición δ(g(x)) para funciones continuamente diferenciables g por

δ δ ()g()x))=.. iδ δ ()x− − xi)Silenciog.()xi)Silencio{displaystyle delta (g(x))=sum _{i}{i}{frac {delta (x-x_{i})}{ vidasg'(x_{i}

donde la suma se extiende sobre todas las raíces (es decir, todas las diferentes) de g(x), que se supone que son simples. Así, por ejemplo

δ δ ()x2− − α α 2)=12Silencioα α Silencio[δ δ ()x+α α )+δ δ ()x− − α α )].{displaystyle delta left(x^{2}-alpha ^{2}right)={frac {1}{2 vidasalpha TENIDO}{Big [}delta left(x+alpha right)+delta left(x-alpha right){Big ]}}

En la forma integral, la propiedad de escala generalizada se puede escribir como

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()x)δ δ ()g()x))dx=.. if()xi)Silenciog.()xi)Silencio.{displaystyle int _{-infty }{infty }f(x),delta (g(x)),mathrm {d} x=sum _{i}{frac {f(x_{i})}{ vidas [x_{i})

Propiedades en n dimensiones

La distribución delta en un espacio n-dimensional satisface la siguiente propiedad de escala,

δ δ ()α α x)=Silencioα α Silencio− − nδ δ ()x),{displaystyle delta (alpha mathbf {x})= Todd^{-n}delta (mathbf {x})~,}

de manera que δ es una distribución homogénea de grado −n.

Bajo cualquier reflexión o rotación ρ, la función delta es invariante,

δ δ ()*** *** x)=δ δ ()x).{displaystyle delta (rho mathbf {x})=delta (mathbf {x}~.}

Como en el caso de una variable, es posible definir la composición de δ con una función bi-Lipschitz g: RnRn únicamente para que la identidad

∫ ∫ Rnδ δ ()g()x))f()g()x))SilencioDetg.()x)Silenciodx=∫ ∫ g()Rn)δ δ ()u)f()u)du{displaystyle int _{mathbb {f} {f} {f} {f}f}f} {f}} {f}f}m}}b}cH0}bh}cH0} {cH0}cH00}cH00}cH00}cH00}cH00}cH00cH00}cH00cH00}cH00}cH00}cH00}cH00}cH00cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}cH00}}cH

para todas las funciones compatibles de forma compacta f.

Usando la fórmula del coárea de la teoría de la medida geométrica, también se puede definir la composición de la función delta con una inmersión de un espacio euclidiano a otro de diferente dimensión; el resultado es un tipo de corriente. En el caso especial de una función continuamente diferenciable g: RnR tal que el gradiente de g no es cero en ninguna parte, se cumple la siguiente identidad

∫ ∫ Rnf()x)δ δ ()g()x))dx=∫ ∫ g− − 1()0)f()x)SilencioSilencio Silencio gSilenciodσ σ ()x){fn} {f}f} {f}f} {f}f} {cH00}}f} {f} {cH00}}f} {cHFF}cH00}cH00}cH00} {cH00}cH00} {cH00}cH00}cH00}cH00}cH00}}cH00cH00}cH00cH00}cH00}cH00}cH00}cH00cH00}cH00}cH00cH00}cH00cH00cH00cH00cH00cH00}cH00}}cH00}cH00cH00}cH00}cH00}cH00}cH00}cH00}}cH00}cH00cH00}}cH00}

donde la integral de la derecha está sobre g−1(0), la (n − 1)-superficie dimensional definida por g(x) = 0 con respecto al contenido de Minkowski medida. Esto se conoce como integral de capa simple.

Más generalmente, si S es una hipersuperficie suave de Rn, entonces podemos asociarla a S la distribución que integra cualquier función fluida soportada de forma compacta g sobre S:

δ δ S[g]=∫ ∫ Sg()s)dσ σ ()s){displaystyle delta _{S}=int _{S}g(mathbf {s}),mathrm {d} sigma (mathbf {s})}

donde σ es la medida de la hipersuperficie asociada a S. Esta generalización está asociada con la teoría potencial de potenciales de capas simples en S. Si D es un dominio en Rn con límite uniforme S, entonces δS es igual a la derivada normal de la función indicadora de D en el sentido de distribución,

− − ∫ ∫ Rng()x)∂ ∂ 1D()x)∂ ∂ ndx=∫ ∫ Sg()s)dσ σ ()s),{displaystyle -int _{mathbb {fn} {fn} {fn} {fn} {fn} {fn} {fn} {fn}} {fn}},mhm {}m} {fnMitbf {x} =int _{f},g {f}fnMitb} {f} {\f}\f}f}f}f}f}f}f}f}f}f}f}f}f}\f}f}f}fn\\fncH00cH00f}cH00cH00cH00cH00}cH00}cH00cH00}cH00cH00cH00}cH00}cH00}cH00cH00}cH00cH00cH00}cH00cH

donde n es la normal exterior. Para una demostración, véase, p. el artículo sobre la función delta de superficie.

Transformada de Fourier

La función delta es una distribución temperada y, por lo tanto, tiene una transformada de Fourier bien definida. Formalmente, se encuentra

δ δ ^ ^ ().. )=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO e− − 2π π ix.. δ δ ()x)dx=1.{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnquicia}fnMicrosoft Sans Serif}

De manera adecuada, la transformación Fourier de una distribución se define mediante la imponente autoadjunción del Fourier transformado bajo la unión de dualidad .. ⋅ ⋅ ,⋅ ⋅ .. {displaystyle langle cdotcdot rangle } de distribuciones templadas con funciones de Schwartz. Así δ δ ^ ^ {displaystyle {widehat {delta } se define como la distribución templada única satisfactoria

.. δ δ ^ ^ ,φ φ .. =.. δ δ ,φ φ ^ ^ .. {displaystyle langle {widehat {delta }}varphi rangle =langle delta{widehat {varphi}rangle }

para todas las funciones de Schwartz φ φ {displaystyle varphi }. Y de hecho sigue de esto δ δ ^ ^ =1.{displaystyle {widehat {delta }=1.

Como resultado de esta identidad, la convolución de la función delta con cualquier otra distribución temperada S es simplemente S:

SAlternativa Alternativa δ δ =S.{displaystyle S*delta =S.}

Es decir que δ es un elemento identidad para la convolución sobre distribuciones temperadas, y de hecho, el espacio de distribuciones compactamente soportadas bajo convolución es un álgebra asociativa con identidad la función delta. Esta propiedad es fundamental en el procesamiento de señales, ya que la convolución con una distribución temperada es un sistema lineal invariante en el tiempo, y la aplicación del sistema lineal invariante en el tiempo mide su respuesta de impulso. La respuesta al impulso se puede calcular con cualquier grado de precisión deseado eligiendo una aproximación adecuada para δ y, una vez que se conoce, caracteriza completamente el sistema. Ver Teoría del sistema LTI § Respuesta de impulso y convolución.

La transformada inversa de Fourier de la distribución temperada f(ξ) = 1 es la función delta. Formalmente, esto se expresa

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO 1⋅ ⋅ e2π π ix.. d.. =δ δ ()x){displaystyle int _{-infty }{infty }1cdot e^{2pi ixxi },mathrm {d}xi =delta (x)}

y más rigurosamente, se sigue ya que

.. 1,f^ ^ .. =f()0)=.. δ δ ,f.. {displaystyle langle 1,{widehat {f}rangle =f(0)=langle deltafrangle }

para todas las funciones de Schwartz f.

En estos términos, la función delta proporciona una declaración sugerente de la propiedad de ortogonalidad del kernel de Fourier en R. Formalmente, uno tiene

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO ei2π π .. 1t[ei2π π .. 2t]Alternativa Alternativa dt=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO e− − i2π π ().. 2− − .. 1)tdt=δ δ ().. 2− − .. 1).{displaystyle int _{-infty }{infty }e^{i2pi xi _{1}t}left[e^{i2pixi _{2}t}right]}{*},mathrm {d} t=int _{-infty }{infty }e^{-i2pi (xi _{2}-xi _{1})t},mathrm {d} t=delta (xi _{2}-xi _{1}). }

Esto es, por supuesto, una abreviatura de la afirmación de que la transformada de Fourier de la distribución temperada

f()t)=ei2π π .. 1t{displaystyle f(t)=e^{i2pi xi _{1}t}

es

f^ ^ ().. 2)=δ δ ().. 1− − .. 2){displaystyle {widehat {f}(xi _{2})=delta (xi _{1}-xi _{2})}

que de nuevo sigue imponiendo la autoadjunción de la transformada de Fourier.

Por continuación analítica de la transformada de Fourier, se encuentra que la transformada de Laplace de la función delta es

∫ ∫ 0JUEGO JUEGO δ δ ()t− − a)e− − stdt=e− − sa.{displaystyle int _{0}{infty }delta (t-a),e^{-st},mathrm {d} t=e^{-sa}

Derivadas de la función delta de Dirac

(feminine)

El derivado de la distribución Dirac delta, denotado δ δ .. {displaystyle delta ^{prime } y también llamado Dirac delta prime o Dirac delta derivative como se describe en Laplacian del indicador, se define en funciones de prueba lisa compatibles compactamente φ φ {displaystyle varphi } por

δ δ .[φ φ ]=− − δ δ [φ φ .]=− − φ φ .()0).{displaystyle delta '[varphi ]=-delta [varphi ']=-varphi '(0).}

La primera igualdad aquí es una especie de integración por partes, para si δ δ {displaystyle delta } era una función verdadera entonces

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO δ δ .()x)φ φ ()x)dx=− − ∫ ∫ − − JUEGO JUEGO JUEGO JUEGO δ δ ()x)φ φ .()x)dx.{displaystyle int _{-infty }delta '(x)varphi (x),dx=-int _{-infty }infty }delta (x)varphi '(x),dx.}

El k{displaystyle k}- el derivado de δ δ {displaystyle delta } se define de manera similar como la distribución dada en las funciones de prueba por

δ δ ()k)[φ φ ]=()− − 1)kφ φ ()k)()0).{displaystyle delta ^{(k)}[varphi ]=(-1)^{k}varphi ^{(k)}(0). }

En particular, δ δ {displaystyle delta } es una distribución infinitamente diferenciable.

La primera derivada de la función delta es el límite distribucional de los cocientes de diferencia:

δ δ .()x)=limh→ → 0δ δ ()x+h)− − δ δ ()x)h.{displaystyle delta '(x)=lim _{hto 0}{frac {delta (x+h)-delta (x)}{h}}}

Más propiamente, uno tiene

δ δ .=limh→ → 01h()τ τ hδ δ − − δ δ ){displaystyle delta '=lim _{hto 0}{frac {1} {h} {tau _{h}delta -delta)}

Donde τ τ h{displaystyle tau _{h} es el operador de traducción, definido en funciones por τ τ hφ φ ()x)=φ φ ()x+h){displaystyle tau _{h}varphi (x)=varphi (x+h)}, y en una distribución S{displaystyle S. por

()τ τ hS)[φ φ ]=S[τ τ − − hφ φ ].{displaystyle (tau _{h}S)[varphi]=S[tau _{-h}varphi ].}

En la teoría del electromagnetismo, la primera derivada de la función delta representa un dipolo magnético puntual situado en el origen. En consecuencia, se le conoce como dipolo o función doblete.

La derivada de la función delta satisface una serie de propiedades básicas, que incluyen:

δ δ .()− − x)=− − δ δ .()x)xδ δ .()x)=− − δ δ ()x){displaystyle {begin{aligned} distantedelta '(-x)=-delta '(x)\fnxdelta '(x)=-delta (x)end{aligned}}

que se puede demostrar aplicando una función de prueba e integrando por partes.

La última de estas propiedades también se puede demostrar aplicando la definición de derivada distribucional, el teorema de Liebnitz y la linealidad del producto interno:

.. xδ δ .,φ φ .. =.. δ δ .,xφ φ .. =− − .. δ δ ,()xφ φ )... =− − .. δ δ ,x.φ φ +xφ φ ... =− − .. δ δ ,x.φ φ .. − − .. δ δ ,xφ φ ... =− − x.()0)φ φ ()0)− − x()0)φ φ .()0)=− − x.()0).. δ δ ,φ φ .. − − x()0).. δ δ ,φ φ ... =− − x.()0).. δ δ ,φ φ .. +x()0).. δ δ .,φ φ .. =.. x()0)δ δ .− − x.()0)δ δ ,φ φ .. ⟹ ⟹ x()t)δ δ .()t)=x()0)δ δ .()t)− − x.()0)δ δ ()t)=− − x.()0)δ δ ()t)=− − δ δ ()t)##### ###########################################################################################################################################################################################################################################################

Furthermore, the convolution of δ δ .{displaystyle delta} con una función compacta y suave f{displaystyle f} es

δ δ .Alternativa Alternativa f=δ δ Alternativa Alternativa f.=f.,{displaystyle delta '*f=delta *f'=f',}

que se deriva de las propiedades de la derivada distribucional de una convolución.

Dimensiones más altas

Más generalmente, en un conjunto abierto U{displaystyle U} en el n{displaystyle n}-dimensional Espacio euclidiano Rn{displaystyle mathbb {R} {} {}} {fn}}, la distribución Dirac delta centrado en un punto a▪ ▪ U{displaystyle ain U} se define por

δ δ a[φ φ ]=φ φ ()a){displaystyle delta _{a}[varphi]=varphi (a)}

para todos φ φ ▪ ▪ CcJUEGO JUEGO ()U){displaystyle varphi in C_{c}{infty }(U)}, el espacio de todas las funciones suaves con soporte compacto en U{displaystyle U}. Si α α =()α α 1,...... ,α α n){displaystyle alpha =(alpha _{1},ldotsalpha _{n}} es cualquier multi-index con Silencioα α Silencio=α α 1+⋯ ⋯ +α α n{displaystyle TENEDOalfa ANTERIOR ¿Qué? "Alpha" y ∂ ∂ α α {displaystyle partial ^{alpha } denota el operador derivado parcial mixto asociado, luego el α α {displaystyle alpha }-th derivative ∂ ∂ α α δ δ a{displaystyle partial ^{alpha }delta _{a} de δ δ a{displaystyle delta _{a} es dado por

.∂ ∂ α α δ δ a,φ φ .=()− − 1)Silencioα α Silencio.δ δ a,∂ ∂ α α φ φ .=()− − 1)Silencioα α Silencio∂ ∂ α α φ φ ()x)Silenciox=apara todosφ φ ▪ ▪ CcJUEGO JUEGO ()U).{displaystyle leftlangle partial ^{alpha }delta _{a},,varphi rightrangle =(-1)^{ arrestalpha TEN}leftlangle delta _{a},partial ^{alpha }varphi rightrangle =(-1)^{ vidasalpha TEN}partial ^{alpha }varphi (x){Big Н}_{x=a}quad {text{ for all }varphi in C_{c}{infty }(U).}

Es decir, el α α {displaystyle alpha }- el derivado de δ δ a{displaystyle delta _{a} es la distribución cuyo valor en cualquier función de prueba φ φ {displaystyle varphi } es α α {displaystyle alpha }- el derivado de φ φ {displaystyle varphi } a a{displaystyle a} (con el signo positivo o negativo adecuado).

Las primeras derivadas parciales de la función delta se consideran capas dobles a lo largo de los planos de coordenadas. Más generalmente, la derivada normal de una capa simple apoyada sobre una superficie es una doble capa apoyada sobre esa superficie y representa un monopolo magnético laminar. Las derivadas superiores de la función delta se conocen en física como multipolos.

Los derivados superiores entran en matemáticas naturalmente como los bloques de construcción para la estructura completa de distribuciones con soporte de puntos. Si S{displaystyle S. es cualquier distribución en U{displaystyle U} apoyado en el conjunto {}a}{displaystyle {a}} que consiste en un solo punto, entonces hay un entero m{displaystyle m} y coeficientes cα α {displaystyle c_{alpha } tales que

S=.. Silencioα α Silencio≤ ≤ mcα α ∂ ∂ α α δ δ a.{displaystyle S=sum _{ tuberculosisalpha Silenciosoleq m}c_{alpha ##partial ^{alpha }delta _{a}

Representaciones de la función delta

La función delta puede verse como el límite de una secuencia de funciones

δ δ ()x)=limε ε → → 0+.. ε ε ()x),{displaystyle delta (x)=lim _{varepsilon to 0^{+}eta _{varepsilon }(x),}

donde ηε(x) a veces se denomina función delta naciente. Este límite se entiende en un sentido débil: o bien que

limε ε → → 0+∫ ∫ − − JUEGO JUEGO JUEGO JUEGO .. ε ε ()x)f()x)dx=f()0){displaystyle lim _{varepsilonto 0^{+}int _{-infty }^{infty }eta _{varepsilon }(x)f(x),dx=f(0)}

()5)

para todas las funciones continuas f con soporte compacto, o que este límite se mantiene para todas las funciones suaves f con soporte compacto. La diferencia entre estos dos modos ligeramente diferentes de convergencia débil suele ser sutil: el primero es convergencia en la vaga topología de medidas, y el segundo es convergencia en el sentido de distribuciones.

Aproximaciones a la identidad

Por lo general, una función delta naciente ηε se puede construir de la siguiente manera. Sea η una función absolutamente integrable en R de integral total 1, y defina

.. ε ε ()x)=ε ε − − 1.. ()xε ε ).{displaystyle eta _{varepsilon }(x)=varepsilon ^{-1}eta left({frac {x}{varepsilon }right). }

En n dimensiones, se usa en su lugar la escala

.. ε ε ()x)=ε ε − − n.. ()xε ε ).{displaystyle eta _{varepsilon }(x)=varepsilon ^{-n}eta left({frac {x}{varepsilon }right). }

Entonces, un simple cambio de variables muestra que ηε también tiene integral 1. Se puede demostrar que (5) se cumple para todas las continuas funciones soportadas de forma compacta f, por lo que ηε converge débilmente a δ en el sentido de las medidas.

Los ηε construidos de esta manera se conocen como una aproximación a la identidad. Esta terminología se debe a que el espacio L1(R) de funciones absolutamente integrables se cierra bajo la operación de convolución de funciones: fgL1(R) siempre que f y g estén en L1(R). Sin embargo, no hay identidad en L1(R) para el producto de convolución: ningún elemento h tal que fh = f para todos los f. Sin embargo, la secuencia ηε se aproxima a tal identidad en el sentido de que

fAlternativa Alternativa .. ε ε → → fcomoε ε → → 0.{displaystyle f*eta _{varepsilon }to fquad {text{as }varepsilon to 0.}

Este límite se cumple en el sentido de convergencia media (convergencia en L1). Se necesitan más condiciones en el ηε, por ejemplo, que sea un suavizante asociado a una función compatible de forma compacta, para garantizar la convergencia puntual en casi todas partes.

Si el η = η1 inicial es suave y tiene un soporte compacto, entonces la secuencia se llama amolificador. El suavizador estándar se obtiene eligiendo η para que sea una función de relieve adecuadamente normalizada, por ejemplo

<math alttext="{displaystyle eta (x)={begin{cases}e^{-{frac {1}{1-|x|^{2}}}}&{text{if }}|x|.. ()x)={}e− − 11− − SilencioxSilencio2siSilencioxSilencio.10siSilencioxSilencio≥ ≥ 1.{displaystyle eta (x)={begin{cases}e^{-{-{frac {1}{1}}}}}} {text{if }}fncipes en inglés)}.<img alt="{displaystyle eta (x)={begin{cases}e^{-{frac {1}{1-|x|^{2}}}}&{text{if }}|x|

En algunas situaciones, como el análisis numérico, es deseable una aproximación lineal por partes a la identidad. Esto se puede obtener tomando η1 como una función sombrero. Con esta elección de η1, uno tiene

.. ε ε ()x)=ε ε − − 1max()1− − Silencioxε ε Silencio,0){displaystyle eta _{varepsilon }(x)=varepsilon ^{-1}max left(1-left durable{frac {x}{varepsilon }justo,0right)}

que son todos continuos y de soporte compacto, aunque no suaves y, por lo tanto, no suavizantes.

Consideraciones probabilísticas

En el contexto de la teoría de la probabilidad, es natural imponer la condición adicional de que el η1 inicial en una aproximación a la identidad debe ser positivo, como tal entonces la función representa una distribución de probabilidad. La convolución con una distribución de probabilidad a veces es favorable porque no da como resultado un sobreimpulso o un subimpulso, ya que la salida es una combinación convexa de los valores de entrada y, por lo tanto, se encuentra entre el máximo y el mínimo de la función de entrada. Tomando η1 como cualquier distribución de probabilidad y dejando que ηε(x) = η1(x/ε)/ε como arriba dará lugar a una aproximación a la identidad. En general, esto converge más rápidamente a una función delta si, además, η tiene media 0 y tiene pequeños momentos superiores. Por ejemplo, si η1 es la distribución uniforme en [−1/2, 1/2], también conocida como la función rectangular, entonces:

<math alttext="{displaystyle eta _{varepsilon }(x)={frac {1}{varepsilon }}operatorname {rect} left({frac {x}{varepsilon }}right)={begin{cases}{frac {1}{varepsilon }},&-{frac {varepsilon }{2}}<x.. ε ε ()x)=1ε ε rectificado⁡ ⁡ ()xε ε )={}1ε ε ,− − ε ε 2.x.ε ε 2,0,de otra manera.{displaystyle eta _{varepsilon }(x)={frac {1}{varepsilon - ¿Por qué? {1}{varepsilon }}, golpe-{frac {varepsilon - ¿Qué? } {2}, âtext{otherwise} {end{cases}}<img alt="{displaystyle eta _{varepsilon }(x)={frac {1}{varepsilon }}operatorname {rect} left({frac {x}{varepsilon }}right)={begin{cases}{frac {1}{varepsilon }},&-{frac {varepsilon }{2}}<x

Otro ejemplo es con la distribución semicircular de Wigner

<math alttext="{displaystyle eta _{varepsilon }(x)={begin{cases}{frac {2}{pi varepsilon ^{2}}}{sqrt {varepsilon ^{2}-x^{2}}},&-varepsilon <x.. ε ε ()x)={}2π π ε ε 2ε ε 2− − x2,− − ε ε .x.ε ε ,0,de otra manera.{displaystyle eta _{varepsilon }(x)={begin{cases}{frac {2}{pi varepsilon ^{2}}}{sqrt {varepsilon ^{2}-x^{2}}}}, ventaja-varepsilon se llevó a cabovarepsilon\0, golpe{text{otherwise}}}end{cases}}<img alt="{displaystyle eta _{varepsilon }(x)={begin{cases}{frac {2}{pi varepsilon ^{2}}}{sqrt {varepsilon ^{2}-x^{2}}},&-varepsilon <x

Este es un soporte continuo y compacto, pero no un suavizante porque no es suave.

Semigrupos

Las funciones delta nacientes a menudo surgen como semigrupos de convolución. Esto equivale a la restricción adicional de que la convolución de ηε con ηδ debe satisfacer

.. ε ε Alternativa Alternativa .. δ δ =.. ε ε +δ δ {displaystyle eta _{varepsilon }*eta _{delta }=eta _{varepsilon #

para todos los ε, δ > 0. Los semigrupos de convolución en L1 que forman una función delta naciente son siempre una aproximación a la identidad en el sentido anterior, sin embargo, la condición de semigrupo es una restricción bastante fuerte.

En la práctica, los semigrupos que se aproximan a la función delta surgen como soluciones fundamentales o funciones de Green para ecuaciones diferenciales parciales elípticas o parabólicas motivadas físicamente. En el contexto de las matemáticas aplicadas, los semigrupos surgen como resultado de un sistema lineal invariante en el tiempo. De manera abstracta, si A es un operador lineal que actúa sobre funciones de x, entonces surge un semigrupo de convolución al resolver el problema de valor inicial

0\[5pt]displaystyle lim _{tto 0^{+}}eta (t,x)=delta (x)end{cases}}}" xmlns="http://www.w3.org/1998/Math/MathML">{}∂ ∂ ∂ ∂ t.. ()t,x)=A.. ()t,x),t■0limt→ → 0+.. ()t,x)=δ δ ()x){displaystyle {begin{cases}{dfrac {partial }{partial t}eta (t,x)=Aeta (t,x),quad t confianza0[5pt]displaystyle lim _{tto 0^{+}}eta (t,x)=delta (x)end{cases}}}}}0\[5pt]displaystyle lim _{tto 0^{+}}eta (t,x)=delta (x)end{cases}}}" aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/2dcd8145e7871cf48f317c1c4d935ac7eb468604" style="vertical-align: -4.676ex; margin-bottom: -0.328ex; width:31.474ex; height:11.176ex;"/>

en el que el límite se entiende como siempre en el sentido débil. Establecer ηε(x) = η(ε, x) proporciona la función delta naciente asociada.

Algunos ejemplos de semigrupos de convolución físicamente importantes que surgen de una solución tan fundamental incluyen los siguientes.

El núcleo de calor

El núcleo de calor, definido por

.. ε ε ()x)=12π π ε ε e− − x22ε ε {displaystyle eta _{varepsilon }(x)={frac {1}{sqrt {2pivarepsilon }}mathrm {e} {x^{2}{2varepsilon }

representa la temperatura en un alambre infinito en el tiempo t > 0, si una unidad de energía térmica se almacena en el origen del cable en el tiempo t = 0. Este semigrupo evoluciona de acuerdo con la ecuación de calor unidimensional:

∂ ∂ u∂ ∂ t=12∂ ∂ 2u∂ ∂ x2.{displaystyle {frac {partial u}{partial {fnMicroc} {fnK} {fnMicroc {partial }u}{partial} {f}} {f}} {f}}} {f}}} {f}}}} {f}}} {f}}}} {f}}}} {f}f}f}f} {f} {f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}fnf}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f #

En la teoría de la probabilidad, ηε(x) es una distribución normal de varianza ε y media 0 Representa la densidad de probabilidad en el tiempo t = ε de la posición de una partícula comenzando en el origen siguiendo un patrón Movimiento browniano. En este contexto, la condición del semigrupo es entonces una expresión de la propiedad de Markov del movimiento browniano.

En el espacio euclidiano de dimensiones superiores Rn, el núcleo de calor es

.. ε ε =1()2π π ε ε )n/2e− − x⋅ ⋅ x2ε ε ,{displaystyle eta _{varepsilon ## {frac {1}{(2pivarepsilon)}mathrm {e} ^{-{frac {xcdot x}{2varepsilon }}}}}}}}

y tiene la misma interpretación física, mutatis mutandis. También representa una función delta naciente en el sentido de que ηεδ en el sentido de distribución como ε → 0.

El núcleo Poisson

El núcleo de Poisson

.. ε ε ()x)=1π π Im{}1x− − iε ε }=1π π ε ε ε ε 2+x2=12π π ∫ ∫ − − JUEGO JUEGO JUEGO JUEGO ei.. x− − Silencioε ε .. Silenciod.. {displaystyle eta _{varepsilon }(x)={frac {1}{pi }mathrm {Im} left{frac {1}{x-mathrm {i} varepsilon {fnK} {fnMicroc} {fnMicroc {varepsilon} }{varepsilon ^{2}+x^{2}={frac {1}{2pi }int _{-infty }infty }mathrm {e} ^{mathrm {i} xi x-Sobrevivirvarepsilon xi ¦

es la solución fundamental de la ecuación de Laplace en el semiplano superior. Representa el potencial electrostático en una placa semi-infinita cuyo potencial a lo largo del borde se mantiene fijo en la función delta. El kernel de Poisson también está estrechamente relacionado con la distribución de Cauchy y las funciones del kernel de Epanechnikov y Gaussian. Este semigrupo evoluciona según la ecuación

∂ ∂ u∂ ∂ t=− − ()− − ∂ ∂ 2∂ ∂ x2)12u()t,x){displaystyle {frac {partial u}{partial {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnMicroc {2}}u(t,x)}

donde el operador se define rigurosamente como el multiplicador de Fourier

F[()− − ∂ ∂ 2∂ ∂ x2)12f]().. )=Silencio2π π .. SilencioFf().. ).{fnMicrosoft Sans Serif} {fnMicroc {fnMicrosoft Sans Serif} {m} {m} {fnMicroc {f}}}}} {m}}}m] {cHFF} {xi)=Principalmente } {m2}}mxi)}}}} {m}}}}}}}}}}}}}mmmmmmmmm}}}}}mmm}mmmmmmcH0}}m}}}}}}}mmm}mmmmmmmmmmmcH0mmmmmmmmcH0}cH0}mmmm}cH0mmcH0}}}mcH

Integrales oscilatorias

En áreas de la física como la propagación de ondas y la mecánica ondulatoria, las ecuaciones involucradas son hiperbólicas y, por lo tanto, pueden tener soluciones más singulares. Como resultado, las funciones delta nacientes que surgen como soluciones fundamentales de los problemas de Cauchy asociados son generalmente integrales oscilatorias. Un ejemplo, que proviene de una solución de la ecuación de Euler-Tricomi de la dinámica de gases transónicos, es la función de Airy reescalada

ε ε − − 1/3Ai⁡ ⁡ ()xε ε − − 1/3).{displaystyle varepsilon ^{-1/3} {Ai} left(xvarepsilon ^{-1/3}right).}

Aunque se usa la transformada de Fourier, es fácil ver que esto genera un semigrupo en algún sentido; no es absolutamente integrable y, por lo tanto, no puede definir un semigrupo en el sentido fuerte anterior. Muchas funciones delta nacientes construidas como integrales oscilatorias solo convergen en el sentido de distribuciones (un ejemplo es el núcleo de Dirichlet a continuación), en lugar de en el sentido de medidas.

Otro ejemplo es el problema de Cauchy para la ecuación de onda en R1+1:

c− − 2∂ ∂ 2u∂ ∂ t2− − Δ Δ u=0u=0,∂ ∂ u∂ ∂ t=δ δ parat=0.{displaystyle {begin{aligned}c^{-2}{frac {partial ^{2}u}{partial t^{2}}} Delta u paciente=0u=0,quad {frac {partial u}{partial }=delta > qquad {text{for No.

La solución u representa el desplazamiento del equilibrio de una cuerda elástica infinita, con una perturbación inicial en el origen.

Otras aproximaciones a la identidad de este tipo incluyen la función sinc (usada ampliamente en electrónica y telecomunicaciones)

.. ε ε ()x)=1π π xpecado⁡ ⁡ ()xε ε )=12π π ∫ ∫ − − 1ε ε 1ε ε #⁡ ⁡ ()kx)dk{displaystyle eta _{varepsilon }(x)={frac {1}{pi x}sin left({frac {x}{varepsilon }right)={frac {1}{2pi }int _{-{frac {1}{varepsilon}{varepsilon ¿Por qué?

y la función de Bessel

.. ε ε ()x)=1ε ε J1ε ε ()x+1ε ε ).{displaystyle eta _{varepsilon }(x)={frac {1}{varepsilon J_{frac {1}varepsilon }left({frac {x+1}{varepsilon }}right). }

Descomposición de ondas planas

Un enfoque para el estudio de una ecuación diferencial parcial lineal

L[u]=f,{displaystyle L[u]=f,}

donde L es un operador diferencial sobre Rn, es buscar primero una solución fundamental, que es una solución de la ecuación

L[u]=δ δ .{displaystyle L[u]=delta.}

Cuando L es particularmente simple, este problema a menudo se puede resolver usando la transformada de Fourier directamente (como en el caso del núcleo de Poisson y el núcleo de calor ya mencionado). Para operadores más complicados, a veces es más fácil considerar primero una ecuación de la forma

L[u]=h{displaystyle L[u]=h}

donde h es una función de onda plana, lo que significa que tiene la forma

h=h()x⋅ ⋅ .. ){displaystyle h=h(xcdot xi)}

para algún vector ξ. Tal ecuación se puede resolver (si los coeficientes de L son funciones analíticas) por el teorema de Cauchy-Kovalevskaya o (si los coeficientes de L son constantes) por cuadratura. Entonces, si la función delta se puede descomponer en ondas planas, entonces, en principio, se pueden resolver ecuaciones diferenciales parciales lineales.

Tal descomposición de la función delta en ondas planas era parte de una técnica general introducida por primera vez esencialmente por Johann Radon, y luego desarrollada en esta forma por Fritz John (1955). Elija k para que n + k sea un número entero par, y para un número real s, poner

g()s)=Re⁡ ⁡ [− − sklog⁡ ⁡ ()− − is)k!()2π π i)n]={}SilenciosSilenciok4k!()2π π i)n− − 1nextraño− − SilenciosSilencioklog⁡ ⁡ SilenciosSilenciok!()2π π i)nnIncluso.{displaystyle g(s)=operatorname {Re} left[{frac {-s^{k}log(-is)}{k!(2pi i)^{n}}}right]={begin{cases}{frac {fn1} {fn1}}\[5pt]-{frac {fnfn1}fn1}fnfn9}fn9}fn1}fn9fn1} {fn1}fn1}fnfn1} {fn1}}}}}}}}}}}}}} {fn1fnMien adelante {fnfn1}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {fnMien adelante {fnMien adelante {fnMien adelante {fnfnfnun}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {fnMien

Entonces δ se obtiene aplicando una potencia del Laplaciano a la integral con respecto a la unidad de medida de esfera dω de g(x · ξ) para ξ en la esfera unitaria Sn −1:

δ δ ()x)=Δ Δ x()n+k)/2∫ ∫ Sn− − 1g()x⋅ ⋅ .. )d⋅ ⋅ .. .{displaystyle delta (x)=Delta _{x}^{(n+k)/2}int _{S^{n-1}g(xcdot xi),domega _{xi }

El laplaciano aquí se interpreta como una derivada débil, por lo que esta ecuación significa que, para cualquier función de prueba φ,

φ φ ()x)=∫ ∫ Rnφ φ ()Sí.)dSí.Δ Δ xn+k2∫ ∫ Sn− − 1g()()x− − Sí.)⋅ ⋅ .. )d⋅ ⋅ .. .{displaystyle varphi (x)=int _{mathbf {R}varphi (y),dy,Delta _{x}^{frac} {n+k}{2}int _{S^{n-1}g(x-y)cdot xi),domega _{xi }}

El resultado se sigue de la fórmula del potencial newtoniano (la solución fundamental de la ecuación de Poisson). Esta es esencialmente una forma de la fórmula de inversión para la transformada de Radon porque recupera el valor de φ(x) de sus integrales sobre hiperplanos. Por ejemplo, si n es impar y k = 1, entonces la integral del lado derecho es

cnΔ Δ xn+12∫ ∫ Sn− − 1φ φ ()Sí.)Silencio()Sí.− − x)⋅ ⋅ .. Silenciod⋅ ⋅ .. dSí.=cnΔ Δ x()n+1)/2∫ ∫ Sn− − 1d⋅ ⋅ .. ∫ ∫ − − JUEGO JUEGO JUEGO JUEGO SilenciopSilencioRφ φ ().. ,p+x⋅ ⋅ .. )dp{displaystyle {begin{aligned} Delta ¿Qué? _{S^{n-1}varphi (y) forever(y-x)cdot xi ,domega _{xi },dy[5pt]={} {n} Delta _{x}{(n+1)/2}int ¿Por qué? ################################################################################################################################################################################################################################################################

donde (ξ, p) es la transformada de Radon de φ:

Rφ φ ().. ,p)=∫ ∫ x⋅ ⋅ .. =pf()x)dn− − 1x.{displaystyle Rvarphi (xip)=int _{xcdot xi =p}f(x),d^{n-1}x.}

Una expresión equivalente alternativa de la descomposición de ondas planas, de Gelfand & Shilov (1966–1968, I, §3.10), es

δ δ ()x)=()n− − 1)!()2π π i)n∫ ∫ Sn− − 1()x⋅ ⋅ .. )− − nd⋅ ⋅ .. {displaystyle delta (x)={frac {(n-1)}{(2pi i)^{n}}int _{S^{n-1}}(xcdot xi)^{-n},domega _{xi }}}

para n incluso, y

δ δ ()x)=12()2π π i)n− − 1∫ ∫ Sn− − 1δ δ ()n− − 1)()x⋅ ⋅ .. )d⋅ ⋅ .. {displaystyle delta (x)={2(2pi i)^{n-1}}int ¿Por qué?

para n impar.

Núcleos de Fourier

En el estudio de las series de Fourier, una cuestión importante consiste en determinar si la serie de Fourier asociada a una función periódica converge a la función y en qué sentido. La nésima suma parcial de la serie de Fourier de una función f de periodo 2π se define por convolución (en el intervalo [−π,π]) con el kernel de Dirichlet:

DN()x)=.. n=− − NNeinx=pecado⁡ ⁡ ()()N+12)x)pecado⁡ ⁡ ()x/2).{displaystyle D_{N}(x)=sum {n=-N} {nx}={frac {nsin left(N+{frac {1}right)xright)}{sin(x/2)}}}}}}} {nnnn0}}

Por lo tanto,

sN()f)()x)=DNAlternativa Alternativa f()x)=.. n=− − NNaneinx{displaystyle s_{N}(f)(x)=D_{N}*f(x)=sum ¿Qué?

dónde

an=12π π ∫ ∫ − − π π π π f()Sí.)e− − inSí.dSí..{displaystyle a_{n}={frac} ¿Qué?

Un resultado fundamental de la serie elemental de Fourier establece que el kernel de Dirichlet restringido al intervalo [−π,π] tiende a ser un múltiplo de la función delta como N → ∞. Esto se interpreta en el sentido de distribución, que

sN()f)()0)=∫ ∫ − − π π π π DN()x)f()x)dx→ → 2π π f()0){displaystyle s_{N}(f)=int _{-pi }{pi }D_{N}(x)f(x),dxto 2pi f(0)}

para cada función f suave compatible de forma compacta. Así, formalmente se tiene

δ δ ()x)=12π π .. n=− − JUEGO JUEGO JUEGO JUEGO einx{displaystyle delta (x)={frac {1}{2pi }sum _{n=-infty

en el intervalo [−π,π].

A pesar de esto, el resultado no es válido para todas las funciones continuas admitidas de forma compacta: es decir, DN no converge débilmente en el sentido de medidas La falta de convergencia de la serie de Fourier ha llevado a la introducción de una variedad de métodos de sumabilidad para producir la convergencia. El método de sumatoria de Cesàro conduce al kernel de Fejér

FN()x)=1N.. n=0N− − 1Dn()x)=1N()pecado⁡ ⁡ Nx2pecado⁡ ⁡ x2)2.{displaystyle F_{N}(x)={frac {1}{N}sum ¿Por qué? {Nx}{2} {fnMicroc} {fnMicroc}} {fnK}}} {fnfn}} {fn}}} {fnfnfn}}}} {fnfn}} {fnMicroc} {fnfnfnf}}}}}}}}} {f}}}}}}}\\\\\\\\\\\\fnfn}\\\fnfnfn}}\\fn}\fnfnfn}}\\\\\\\fn}\\fnK\fnK\\fn}\fn}fn}fn}fn}\\\\\\\fn}}}}}}} Bien.

Los granos de Fejér tienden a la función delta en un sentido más fuerte que

∫ ∫ − − π π π π FN()x)f()x)dx→ → 2π π f()0){displaystyle int _{pi }{pi }F_{N}(x)f(x),dxto 2pi f(0)}

para todas las funciones f continuas compatibles de forma compacta. La implicación es que la serie de Fourier de cualquier función continua es Cesàro sumable al valor de la función en cada punto.

Teoría del espacio de Hilbert

La distribución delta de Dirac es un funcional lineal ilimitado densamente definido en el espacio L2 de Hilbert de funciones integrables al cuadrado. De hecho, las funciones con soporte compacto suave son densas en L2, y la acción de la distribución delta en tales funciones está bien definida. En muchas aplicaciones, es posible identificar subespacios de L2 y dar una topología más sólida en la que la función delta define un funcional lineal acotado.

Espacios Sobolev

El teorema de incrustación de Sobolev para espacios de Sobolev en la línea real R implica que cualquier función integrable al cuadrado f tal que

<math alttext="{displaystyle |f|_{H^{1}}^{2}=int _{-infty }^{infty }|{widehat {f}}(xi)|^{2}(1+|xi |^{2}),dxi .. f.. H12=∫ ∫ − − JUEGO JUEGO JUEGO JUEGO Silenciof^ ^ ().. )Silencio2()1+Silencio.. Silencio2)d.. .JUEGO JUEGO {displaystyle {f}= ¿Por qué?<img alt="{displaystyle |f|_{H^{1}}^{2}=int _{-infty }^{infty }|{widehat {f}}(xi)|^{2}(1+|xi |^{2}),dxi

es automáticamente continuo y satisface en particular

<math alttext="{displaystyle delta [f]=|f(0)|δ δ [f]=Silenciof()0)Silencio.C.. f.. H1.{displaystyle delta [f]= imperf(0) supuestamente asignadoC imperf impertine_{H^{1}}<img alt="delta [f]=|f(0)|

Así, δ es un funcional lineal acotado en el espacio de Sobolev H1. De manera equivalente, δ es un elemento del espacio dual continuo H−1 de H1. Más generalmente, en n dimensiones, uno tiene δHs(Rn) proporcionado s > n / 2.

Espacios de funciones holomorfas

En el análisis complejo, la función delta entra a través de la fórmula integral de Cauchy, que afirma que si D es un dominio en el plano complejo con un límite suave, entonces

f()z)=12π π i∮ ∮ ∂ ∂ Df()Especificaciones Especificaciones )dEspecificaciones Especificaciones Especificaciones Especificaciones − − z,z▪ ▪ D{displaystyle f(z)={2pi i}oint _{partial D}{frac {f(zeta),dzeta }{zeta -z}}quad zin D}

para todas las funciones holomorfas f en D que son continuas en el cierre de D. Como resultado, la función delta δz está representada en esta clase de funciones holomorfas por la integral de Cauchy:

δ δ z[f]=f()z)=12π π i∮ ∮ ∂ ∂ Df()Especificaciones Especificaciones )dEspecificaciones Especificaciones Especificaciones Especificaciones − − z.{displaystyle delta _{z}[f]=f(z)={frac {1}{2pi i}}oint _{partial D}{frac {f(zeta),dzeta }{zeta - Sí.

Además, sea H2(∂D) el espacio de Hardy consistente en el cierre en L2(∂D) de todos los holomorfos funciones en D continuas hasta el límite de D. Entonces las funciones en H2(∂D) se extienden únicamente a las funciones holomorfas en D, y la fórmula integral de Cauchy sigue aguantando. En particular, para zD, la función delta δ z es un funcional lineal continuo en H2(∂D). Este es un caso especial de la situación en varias variables complejas en las que, para dominios suaves D, el kernel de Szegő desempeña el papel de la integral de Cauchy.

Resoluciones de la identidad

Dado un conjunto completo de funciones de base ortonormal {φn} en un espacio de Hilbert separable, por ejemplo, los vectores propios normalizados de un operador compacto autoadjunto, cualquier vector f se puede expresar como

f=.. n=1JUEGO JUEGO α α nφ φ n.{displaystyle f=sum _{n=1}{infty }alpha _{n}varphi _{n}

Los coeficientes {αn} se encuentran como

α α n=.. φ φ n,f.. ,{displaystyle alpha _{n}=langle varphi _{n},frangle}

que puede ser representado por la notación:

α α n=φ φ n† † f,{displaystyle alpha ¿Qué? ¿Qué?

una forma de la notación bra-ket de Dirac. Adoptando esta notación, la expansión de f toma la forma diádica:

f=.. n=1JUEGO JUEGO φ φ n()φ φ n† † f).{displaystyle f=sum _{n=1}{infty }varphi _{n}left(varphi _{n}}{ngger }fright).}

Dejando que I denote el operador de identidad en el espacio de Hilbert, la expresión

I=.. n=1JUEGO JUEGO φ φ nφ φ n† † ,{displaystyle I=sum _{n=1}{infty }varphi ¿Qué?

se llama una resolución de la identidad. Cuando el espacio de Hilbert es el espacio L2(D) de funciones integrables al cuadrado en un dominio D, la cantidad:

φ φ nφ φ n† † ,{displaystyle varphi _{n}varphi _{n}{dagger }

es un operador integral, y la expresión para f se puede reescribir

f()x)=.. n=1JUEGO JUEGO ∫ ∫ D()φ φ n()x)φ φ nAlternativa Alternativa ().. ))f().. )d.. .{displaystyle f(x)=sum _{n=1}{infty }int _{D},left(varphi _{n}(x)varphi _{n}{*}(xi)right)f(xi)dxi.}

El lado derecho converge a f en el sentido L2. No es necesario que se cumpla en un sentido puntual, incluso cuando f es una función continua. Sin embargo, es común abusar de la notación y escribir

f()x)=∫ ∫ δ δ ()x− − .. )f().. )d.. ,{displaystyle f(x)=int ,delta (x-xi)f(xi),dxi}

resultando en la representación de la función delta:

δ δ ()x− − .. )=.. n=1JUEGO JUEGO φ φ n()x)φ φ nAlternativa Alternativa ().. ).{displaystyle delta (x-xi)=sum _{n=1}{infty }varphi _{n}(x)varphi _{n}^{*}(xi).}

Con un espacio de Hilbert amañado adecuado (Φ, L2(D), Φ*) donde Φ ⊂ L2(D) contiene todas las funciones, esta sumatoria puede converger en Φ*, dependiendo de las propiedades de la base φn. En la mayoría de los casos de interés práctico, la base ortonormal proviene de un operador integral o diferencial, en cuyo caso la serie converge en el sentido de la distribución.

Funciones delta infinitesimales

Cauchy usó un infinitesimal α para escribir un impulso unitario, infinitamente alto y estrecha función delta tipo Dirac δα satisfacción ∫ ∫ F()x)δ δ α α ()x)dx=F()0){textstyle int F(x)delta _{alpha }(x),dx=F(0)} en varios artículos en 1827. Cauchy definió un infinitesimal en Cours d'Analyse (1827) en términos de una secuencia que tiende a cero. Es decir, tal secuencia nula se convierte en un infinitesimal en la terminología de Cauchy y Lazare Carnot.

El análisis no estándar permite tratar rigurosamente infinitesimals. El artículo de Yamashita (2007) contiene una bibliografía sobre las funciones modernas de Dirac delta en el contexto de un continuum enriquecido infinitesimal proporcionado por las hiperrealidades. Aquí el delta Dirac puede ser dado por una función real, teniendo la propiedad que por cada función real F uno tiene ∫ ∫ F()x)δ δ α α ()x)dx=F()0){textstyle int F(x)delta _{alpha }(x),dx=F(0)} como anticipado por Fourier y Cauchy.

Peine Dirac

Un peine Dirac es una serie infinita de funciones Dirac delta espaciadas a intervalos de T

El llamado "tren de pulsos" uniforme de medidas delta de Dirac, que se conoce como peine de Dirac, o como distribución Sha, crea una función de muestreo, a menudo utilizada en el procesamiento de señales digitales (DSP) y el análisis de señales de tiempo discreto. El peine de Dirac se da como la suma infinita, cuyo límite se entiende en el sentido de distribución,

III⁡ ⁡ ()x)=.. n=− − JUEGO JUEGO JUEGO JUEGO δ δ ()x− − n),{displaystyle operatorname {III} (x)=sum _{n=-infty }infty }delta (x-n),}

que es una secuencia de masas puntuales en cada uno de los números enteros.

Hasta una constante normalizadora general, el peine Dirac es igual a su propia transformación Fourier. Esto es significativo porque si f{displaystyle f} es cualquier función de Schwartz, luego la duración de f{displaystyle f} es dado por la convolución

()fAlternativa Alternativa III)()x)=.. n=− − JUEGO JUEGO JUEGO JUEGO f()x− − n).{displaystyle (f*operatorname {III})(x)=sum _{n=-infty }{infty }f(x-n).}

En particular,

()fAlternativa Alternativa III)∧ ∧ =f^ ^ III^ ^ =f^ ^ III{displaystyle (f*operatorname {III}{wedge # {f} {f} {f} {f}}= {f}f}f}f}f} {III}

es precisamente la fórmula de summación Poisson. Más generalmente, esta fórmula sigue siendo verdadera si f{displaystyle f} es una distribución templada de descenso rápido o, equivalentemente, si f^ ^ {displaystyle {f}} es una función lenta y ordinaria dentro del espacio de distribuciones templadas.

Teorema de Sokhotski–Plemelj

El teorema de Sokhotski-Plemelj, importante en mecánica cuántica, relaciona la función delta con la distribución p.v. 1/x, el valor principal de Cauchy de la función 1/x, definida por

varepsilon }{frac {varphi (x)}{x}},dx.}" xmlns="http://www.w3.org/1998/Math/MathML">.p.v.⁡ ⁡ 1x,φ φ .=limε ε → → 0+∫ ∫ SilencioxSilencio■ε ε φ φ ()x)xdx.{displaystyle leftlangle operatorname {p.v.} {frac {1}{x}},varphi rightrangle =lim _{varepsilonto 0^{+}int _{x}int _ preservex confidencialvarepsilon }{varphi (x)}{x},dx}varepsilon }{frac {varphi (x)}{x}},dx." aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/f0e979de266c5abe799ed95a15eb9b1833cdd82c" style="vertical-align: -2.671ex; width:35.599ex; height:6.509ex;"/>

La fórmula de Sokhotsky establece que

limε ε → → 0+1x± ± iε ε =p.v.⁡ ⁡ 1x∓ ∓ iπ π δ δ ()x),{displaystyle lim _{varepsilonto 0^{+}{frac {1}{xpm ivarepsilon }= 'operatorname {p.v.} {frac {1} {x}mp ipi delta (x),}

Aquí el límite se entiende en el sentido de la distribución, que para todas las funciones suaves soportadas de forma compacta f,

varepsilon }{frac {f(x)}{x}},dx.}" xmlns="http://www.w3.org/1998/Math/MathML">limε ε → → 0+∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()x)x± ± iε ε dx=∓ ∓ iπ π f()0)+limε ε → → 0+∫ ∫ SilencioxSilencio■ε ε f()x)xdx.{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f} {f} {cccH00cH00}cH0}cH0}cccH00}ccH00}cH0ccH0cH0cH0cH00}cH0cH00}cH0cH00}cH00}cH0cH0cH0cH00cH0cH0cH0cH00cH00cH00}cH0cH0cH00}cH00}cH00}cH00cH00cH0cH00cH00cH00cH00cH00cH00cH00cH0cH00cH00cH00}cH0varepsilon }{frac {f(x)}{x}},dx." aria-hidden="true" class="mwe-math-fallback-image-inline" src="https://wikimedia.org/api/rest_v1/media/math/render/svg/a45e0171184a30b6a0d45e32b953e7dcf8138e54" style="vertical-align: -2.671ex; width:53.076ex; height:6.509ex;"/>

Relación con el delta de Kronecker

El delta de Kronecker δij es la cantidad definida por

δ δ ij={}1i=j0iلj{displaystyle delta ##{ij}={begin{cases}1 limiti=j recurinot =jend{cases}}

para todos los enteros i, j. Esta función satisface entonces el siguiente análogo de la propiedad de sifting: si ()ai)i▪ ▪ Z{displaystyle (a_{i})_{iin mathbf {Z}} es cualquier secuencia doblemente infinita, entonces

.. i=− − JUEGO JUEGO JUEGO JUEGO aiδ δ ik=ak.{displaystyle sum _{i=-infty }a_{i}delta _{ik}=a_{k}

Del mismo modo, para cualquier función continua de valor real o complejo f en R, el delta de Dirac satisface la propiedad de cribado

∫ ∫ − − JUEGO JUEGO JUEGO JUEGO f()x)δ δ ()x− − x0)dx=f()x0).{displaystyle int _{-infty }{infty }f(x)delta (x-x_{0}),dx=f(x_{0}). }

Esto exhibe la función delta de Kronecker como un análogo discreto de la función delta de Dirac.

Aplicaciones

Teoría de la probabilidad

En teoría de probabilidad y estadística, la función delta de Dirac se usa a menudo para representar una distribución discreta, o una distribución parcialmente discreta, parcialmente continua, usando una función de densidad de probabilidad (que normalmente se usa para representar distribuciones absolutamente continuas). Por ejemplo, la función de densidad de probabilidad f(x) de una distribución discreta que consta de puntos x = {x 1,..., xn}, con las probabilidades correspondientes p1,..., pn, se puede escribir como

f()x)=.. i=1npiδ δ ()x− − xi).{displaystyle f(x)=sum ¿Por qué?

Como otro ejemplo, considere una distribución en la que 6/10 de las veces devuelve una distribución normal estándar y 4/10 de las veces devuelve exactamente el valor 3,5 (es decir, una distribución mixta en parte continua y en parte discreta). La función de densidad de esta distribución se puede escribir como

f()x)=0.612π π e− − x22+0,4δ δ ()x− − 3.5).{displaystyle f(x)=0.6,{frac {1}{sqrt {2pi}e^{-{frac} {x^{2}{2}}}+0.4,delta (x-3.5). }

La función delta también se utiliza para representar la función de densidad de probabilidad resultante de una variable aleatoria que se transforma mediante una función continuamente diferenciable. Si Y = g(X) es una función diferenciable continua, entonces la densidad de Y se puede escribir como

fY()Sí.)=∫ ∫ − − JUEGO JUEGO +JUEGO JUEGO fX()x)δ δ ()Sí.− − g()x))dx.{displaystyle f_{Y}(y)=int _{-infty }{+infty }f_{X}(x)delta (y-g(x))dx.}

La función delta también se usa de una manera completamente diferente para representar el tiempo local de un proceso de difusión (como el movimiento browniano). La hora local de un proceso estocástico B(t) viene dada por

l l ()x,t)=∫ ∫ 0tδ δ ()x− − B()s))ds{displaystyle ell (x,t)=int _{0}delta (x-B(s),ds}

y representa la cantidad de tiempo que el proceso pasa en el punto x en el rango del proceso. Más precisamente, en una dimensión esta integral se puede escribir

l l ()x,t)=limε ε → → 0+12ε ε ∫ ∫ 0t1[x− − ε ε ,x+ε ε ]()B()s))ds{displaystyle ell (x,t)=lim _{varepsilonto 0^{+}{frac {1}{2varepsilon }}int _{0}mathbf {1} _{[x-varepsilonx+varepsilon]}}}(B(s)},ds}

donde 1[xε, x +ε] es la función indicadora del intervalo [xε, x+ε].

Mecánica cuántica

La función delta es conveniente en la mecánica cuántica. La función de onda de una partícula da la amplitud de probabilidad de encontrar una partícula dentro de una determinada región del espacio. Se supone que las funciones de onda son elementos del espacio Hilbert L2 de funciones cuadradas-integrables, y la probabilidad total de encontrar una partícula dentro de un intervalo dado es la parte integral de la magnitud de la función de onda cuadrada a lo largo del intervalo. Un juegoSilencioφ φ n.. {displaystyle Silenciovarphi _{n}rangle }} de funciones de onda es ortonormal si son normalizados

.. φ φ n▪ ▪ φ φ m.. =δ δ nm{displaystyle langle varphi ¿Por qué? ¿Qué?

Donde δ δ {displaystyle delta } es el Kronecker delta. Un conjunto de funciones ortonormales de onda se completa en el espacio de funciones cuadradas-integrables si cualquier función de onda Silencio↑ ↑ .. {displaystyle TENED rangle } se puede expresar como una combinación lineal de la {Silencioφ φ n.. {displaystyle Silenciovarphi _{n}rangle }} con coeficientes complejos:

↑ ↑ =.. cnφ φ n,{displaystyle psi =sum c_{n}varphi _{n}

con cn=.. φ φ nSilencio↑ ↑ .. {displaystyle c_{n}=langle varphi _{n}. Los sistemas ortonormales completos de las funciones de onda aparecen naturalmente como las eigenfunctions del Hamiltonian (de un sistema consolidado) en la mecánica cuántica que mide los niveles de energía, que se llaman los eigenvalues. El conjunto de eigenvalues, en este caso, se conoce como el espectro del Hamiltonian. En la notación Bra-ket, como arriba, esta igualdad implica la resolución de la identidad:

I=.. Silencioφ φ n.. .. φ φ nSilencio.{displaystyle I=sum varphi _{n}rangle langle varphi - Buenas tardes.

Aquí se supone que los valores propios son discretos, pero el conjunto de valores propios de un observable puede ser continuo en lugar de discreto. Un ejemplo es la posición observable, (x) = xψ(x). El espectro de la posición (en una dimensión) es toda la línea real y se llama espectro continuo. Sin embargo, a diferencia del hamiltoniano, el operador de posición carece de funciones propias adecuadas. La forma convencional de superar esta deficiencia es ampliar la clase de funciones disponibles permitiendo también distribuciones: es decir, reemplazar el espacio de Hilbert de la mecánica cuántica con un espacio de Hilbert amañado apropiado. En este contexto, el operador de posición tiene un conjunto completo de distribuciones propias, etiquetadas por los puntos y de la recta real, dada por

φ φ Sí.()x)=δ δ ()x− − Sí.).{displaystyle varphi _{y}(x)=delta (x-y).}

Las funciones eigen de la posición son denotadas por φ φ Sí.=SilencioSí... {displaystyle varphi _{y}=persyrangle } en la notación Dirac, y son conocidos como eigenstates de posición.

Se aplican consideraciones similares a los estados propios del operador de cantidad de movimiento o, de hecho, a cualquier otro operador autoadjunto ilimitado P en el espacio de Hilbert, siempre que el espectro de P sea continuo y no hay valores propios degenerados. En ese caso, hay un conjunto Ω de números reales (el espectro), y una colección φy de distribuciones indexadas por los elementos de Ω, tal que

Pφ φ Sí.=Sí.φ φ Sí..{displaystyle Pvarphi - Sí. _{y}

Es decir, φy son los vectores propios de P. Si los vectores propios se normalizan de modo que

.. φ φ Sí.,φ φ Sí.... =δ δ ()Sí.− − Sí..){displaystyle langle varphi ¿Qué?

en el sentido de distribución, entonces para cualquier función de prueba ψ,

↑ ↑ ()x)=∫ ∫ Ω Ω c()Sí.)φ φ Sí.()x)dSí.{displaystyle psi (x)=int _{Omega }c(y)varphi _{y}(x),dy}

dónde

c()Sí.)=.. ↑ ↑ ,φ φ Sí... .{displaystyle c(y)=langle psivarphi ¿Qué?

Es decir, como en el caso discreto, hay una resolución de la identidad

I=∫ ∫ Ω Ω Silencioφ φ Sí... .. φ φ Sí.SilenciodSí.{displaystyle I=int _{Omega } Anteriorvarphi _{y}rangle ,langle varphi - Hola.

donde la integral con valores de operador se entiende de nuevo en el sentido débil. Si el espectro de P tiene partes continuas y discretas, entonces la resolución de la identidad implica una suma sobre el espectro discreto y una integral sobre el espectro continuo.

La función delta también tiene muchas aplicaciones más especializadas en la mecánica cuántica, como los modelos de potencial delta para pozos de potencial simple y doble.

Mecánica estructural

La función delta se puede utilizar en mecánica estructural para describir cargas transitorias o cargas puntuales que actúan sobre estructuras. La ecuación gobernante de un sistema masa-resorte simple excitado por un impulso de fuerza repentino I en el tiempo t = 0 se puede escribir

md2.. dt2+k.. =Iδ δ ()t),{displaystyle m{frac {mathrm} {c} {m}{m} {m} {m}} {m}}} {m} - ¿Qué?

donde m es la masa, ξ la desviación y k la constante elástica.

Como otro ejemplo, la ecuación que gobierna la deflexión estática de una viga esbelta es, según la teoría de Euler-Bernoulli,

EId4wdx4=q()x),{displaystyle EI{frac}=q(x),}

donde EI es la rigidez a la flexión de la viga, w la flecha, x la coordenada espacial y q(x) la distribución de carga. Si una viga está cargada por una fuerza puntual F en x = x0, la distribución de carga se escribe

q()x)=Fδ δ ()x− − x0).{displaystyle q(x)=Fdelta (x-x_{0}). }

Como la integración de la función delta da como resultado la función escalón de Heaviside, se deduce que la deflexión estática de una viga esbelta sujeta a múltiples cargas puntuales se describe mediante un conjunto de polinomios por partes.

Además, un momento puntual que actúa sobre una viga se puede describir mediante funciones delta. Considere dos fuerzas puntuales opuestas F separadas por una distancia d. Entonces producen un momento M = Fd que actúa sobre la viga. Ahora, permita que la distancia d se acerque al límite cero, mientras M se mantiene constante. La distribución de carga, suponiendo un momento en el sentido de las agujas del reloj que actúa en x = 0, se escribe

q()x)=limd→ → 0()Fδ δ ()x)− − Fδ δ ()x− − d))=limd→ → 0()Mdδ δ ()x)− − Mdδ δ ()x− − d))=Mlimd→ → 0δ δ ()x)− − δ δ ()x− − d)d=Mδ δ .()x).{displaystyle {begin{aligned}q(x) sentimiento=lim _{dto {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {f}} {fnMicrosoft} {fnMicrosoft} {fnMicrosoft} {fnMicrosoft}fnMicros} {fnMicrosoft}} {fnMicrosoft} {f}}f}}}}f}f}f}f}f}f}f}f}f}fnMinMinun}fnun}fnun}fnun}fnun}fnun}fnun}fnun}fnun}fnun}fnun} {fnun}fnun}fnun}fnun}fnun}fnun}fnun}fnun}fnun}fnun}fnun}fnun}

Por lo tanto, los momentos puntuales se pueden representar mediante la derivada de la función delta. La integración de la ecuación de la viga nuevamente da como resultado una desviación polinomial por partes.