Regla de Cramer
En álgebra lineal, la regla de Cramer es una fórmula explícita para la solución de un sistema de ecuaciones lineales con tantas ecuaciones como incógnitas, válida siempre que el sistema tenga solución única. Expresa la solución en términos de los determinantes de la matriz de coeficientes (cuadrada) y de las matrices obtenidas de ella reemplazando una columna por el vector columna de los lados derechos de las ecuaciones. Lleva el nombre de Gabriel Cramer (1704-1752), quien publicó la regla para un número arbitrario de incógnitas en 1750, aunque Colin Maclaurin también publicó casos especiales de la regla en 1748 (y posiblemente la conocía ya en 1729).
La regla de Cramer implementada de manera ingenua es computacionalmente ineficiente para sistemas de más de dos o tres ecuaciones. En el caso de n ecuaciones en n incógnitas, requiere el cálculo de n + 1 determinantes, mientras que la eliminación gaussiana produce el resultado con la misma complejidad computacional que el cálculo de un único determinante. La regla de Cramer también puede ser numéricamente inestable incluso para sistemas 2×2. Sin embargo, recientemente se ha demostrado que la regla de Cramer se puede implementar con la misma complejidad que la eliminación gaussiana (requiere el doble de operaciones aritméticas y tiene la misma estabilidad numérica cuando se aplican las mismas matrices de permutación).
Caso general
Considere un sistema de n ecuaciones lineales para n incógnitas, representadas en forma de multiplicación de matrices de la siguiente manera:
- Ax=b{displaystyle Amathbf {x} =mathbf {b}
Donde n × n matriz A tiene un determinante no cero, y el vector x=()x1,...... ,xn)T{displaystyle mathbf {x} =(x_{1},ldotsx_{n}^{mathsf {T}} es el vector de columna de las variables. Entonces el teorema afirma que en este caso el sistema tiene una solución única, cuyos valores individuales para los desconocidos son dados por:
- xi=Det()Ai)Det()A)i=1,...... ,n{displaystyle x_{i}={frac {det}{det(A)}qquad i=1,ldotsn}
Donde Ai{displaystyle A_{i} es la matriz formada por reemplazar la i-a columna de A por el vector de la columna b.
Una versión más general de la regla de Cramer considera la ecuación matricial
- AX=B{displaystyle AX=B}
Donde n × n matriz A tiene un no cero determinante, y X, B son n × m matrices. Secuencias dadas <math alttext="{displaystyle 1leq i_{1}<i_{2}<cdots 1≤ ≤ i1.i2.⋯ ⋯ .ik≤ ≤ n{displaystyle 1leq i_{1} {2} 0cdots<img alt="{displaystyle 1leq i_{1}<i_{2}<cdots y <math alttext="{displaystyle 1leq j_{1}<j_{2}<cdots 1≤ ≤ j1.j2.⋯ ⋯ .jk≤ ≤ m{displaystyle 1leq j_{1} seleq m}<img alt="{displaystyle 1leq j_{1}<j_{2}<cdots , vamos XI,J{displaystyle X_{I,J} ser el k × k submatrix de X con filas en I:=()i1,...... ,ik){displaystyle I:=(i_{1},ldotsi_{k}} y columnas en J:=()j1,...... ,jk){displaystyle J:=(j_{1},ldotsj_{k}}. Vamos AB()I,J){displaystyle A_{B}(I,J)} ser el n × n matriz formada por la sustitución de is{displaystyle i_{s} columna of A por el js{displaystyle J. columna of B, para todos s=1,...... ,k{displaystyle s=1,ldotsk}. Entonces...
- DetXI,J=Det()AB()I,J))Det()A).{displaystyle det X_{I,J}={frac {det(A_{B}(I,J)}{det(A)}}}
En el caso k=1{displaystyle k=1}Esto se reduce a la regla normal de Cramer.
La regla se cumple para los sistemas de ecuaciones con coeficientes e incógnitas en cualquier campo, no solo en los números reales.
Prueba
La prueba de la regla de Cramer utiliza las siguientes propiedades de los determinantes: linealidad con respecto a cualquier columna dada y el hecho de que el determinante es cero siempre que dos columnas sean iguales, lo cual está implícito en la propiedad de que el signo del determinante se invierte si cambias dos columnas.
Repara el índice j de una columna, y considera que las entradas de las columnas tienen valores fijos. Esto hace que el determinante sea una función de las entradas de la jésima columna. La linealidad con respecto a esta columna significa que esta función tiene la forma
- Dj()a1,j,...... ,an,j)=C1a1,j+⋯ ⋯ ,Cnan,j,{displaystyle D_{j}(a_{1,j},ldotsa_{n,j})=C_{1}a_{1,j}+cdotsC_{n}a_{n,j}
Donde Cj{displaystyle C_{j} son coeficientes que dependen de las entradas de A que no están en la columna j. Así que uno tiene
- Det()A)=Dj()a1,j,...... ,an,j)=C1a1,j+⋯ ⋯ ,Cnan,j{displaystyle det(A)=D_{j}(a_{1,j},ldotsa_{n,j})=C_{1}a_{1,j}+cdotsC_{n}a_{n,j}
(La expansión del lugar proporciona una fórmula para calcular el Ci,{displaystyle C_{i},} pero su expresión no es importante aquí.)
Si la función Dj{displaystyle D_{j} se aplica a cualquier otros columna k de A, entonces el resultado es el determinante de la matriz obtenida de A reemplazando la columna j por una copia de la columna k, por lo que el determinante resultante es 0 (el caso de dos columnas iguales).
Ahora considere un sistema de n ecuaciones lineales en n desconocidos x1,...... ,xn{displaystyle x_{1},ldotsx_{n}, cuya matriz de coeficiente es A, con detASe supone que no es cero:
- a11x1+a12x2+⋯ ⋯ +a1nxn=b1a21x1+a22x2+⋯ ⋯ +a2nxn=b2⋮ ⋮ an1x1+an2x2+⋯ ⋯ +annxn=bn.{displaystyle {begin{matrix}a_{11}x_{1}+a_{12}x_{2}+cdots +a_{1n}x_{2}a_{1}x_{1}+a_{22}x_{2}+cdots ##a_{2n}x_{n} limit= limitb_{2}\\cdots #a_{n1}x_{1}+a_{n2}x_{2}+cdots {fnn}
Si uno combina estas ecuaciones tomando C1 veces la primera ecuación, más C2 veces el segundo, y así sucesivamente hasta Cn veces la última, entonces, para cada k el coeficiente de xk se convierte en
- Dj()a1,k,...... ,an,k){displaystyle D_{j}(a_{1,k},ldotsa_{n,k}}
Entonces, todos los coeficientes se vuelven cero, excepto el coeficiente de xj{displaystyle x_{j} que se hace Det()A).{displaystyle det(A).} Del mismo modo, el coeficiente constante se convierte en Dj()b1,...... ,bn),{displaystyle D_{j}(b_{1},ldotsb_{n}} y la ecuación resultante es así
- Det()A)xj=Dj()b1,...... ,bn),{displaystyle det(A)x_{j}=D_{j}(b_{1},ldotsb_{n}),}
que da el valor xj{displaystyle x_{j} como
- xj=1Det()A)Dj()b1,...... ,bn).{displaystyle x_{j}={frac {1}{det(A)}D_{j}(b_{1},ldotsb_{n}).}
Como, por construcción, el numerador es el determinante de la matriz obtenida de A reemplazando la columna j por b, obtenemos la expresión de la regla de Cramer como condición necesaria para una solución. El mismo procedimiento se puede repetir para otros valores de j para encontrar valores para las otras incógnitas.
El único punto que queda por probar es que estos valores para los desconocidos forman una solución. Vamos M ser el n × n matriz que tiene los coeficientes de Dj{displaystyle D_{j} como ja fila, por j=1,...... ,n{displaystyle j=1,ldotsn} (esta es la matriz adyugada para A). Expresado en términos de matriz, tenemos que demostrar que
- x=1Det()A)Mb{displaystyle mathbf {x} ={frac {1}{det(A)} Mmathbf {b}
es una solución; eso es eso
- A()1Det()A)M)b=b.{displaystyle Aleft({frac {1}{det(A)}Mright)mathbf {b} =mathbf {b}
Para eso, basta probar que
- A()1Det()A)M)=In,{displaystyle A,left({frac {1}{det(A)}Mright)=I_{n}}
Donde In{displaystyle I_{n} es la matriz de identidad.
Las propiedades anteriores de las funciones Dj{displaystyle D_{j} mostrar que uno tiene MA = det(A)In, y por lo tanto,
- ()1Det()A)M)A=In.{displaystyle left({frac {1}{det(A)}Mright),A=I_{n}
Esto completa la demostración, ya que una inversa por la izquierda de una matriz cuadrada también es una inversa por la derecha (consulte el teorema de la matriz invertible).
Para otras pruebas, consulte a continuación.
Encontrar matriz inversa
Sea A un n × n matriz con entradas en un campo F. Entonces
- Aadj ()A)=adj ()A)A=Det()A)I{displaystyle A,operatorname {adj}(A)=operatorname {adj} (A),A=det(A)I}
donde adj(A) denota la matriz adjunta, det(A) es el determinante y I es la matriz identidad. Si det(A) es distinto de cero, entonces la matriz inversa de A es
- A− − 1=1Det()A)adj ()A).{displaystyle A^{-1}={frac {1}{det(A)}operatorname {adj} (A).}
Esto proporciona una fórmula para el inverso de A, siempre que det( A) ≠ 0. De hecho, esta fórmula funciona siempre que F sea un anillo conmutativo, siempre que det(A) es una unidad. Si det(A) no es una unidad, entonces A no es invertible sobre el anillo (puede ser invertible sobre un anillo más grande en el que algunos elementos no unitarios de F puede ser invertible).
Aplicaciones
Fórmulas explícitas para sistemas pequeños
Considere el sistema lineal
- {}a1x+b1Sí.=c1a2x+b2Sí.=c2{displaystyle left{begin{matrix}a_{1}x+b_{1}y simultáneamente={color} {}c_{1}a_{2}x+b_{2}y Bien.
que en formato matricial es
- [a1b1a2b2][xSí.]=[c1c2].{displaystyle {begin{bmatrix}a_{1} {1}a_{2} {2}end{bmatrix}}{begin{bmatrix}x\yend{bmatrix}={begin{bmatrix}{begin{bmatrix}{color}x} {red}c_{1}\\\\fnMicrosoft} {red}c_{2}end{bmatrix}}}
Suponga a1b2 − b1a2 distinto de cero. Luego, con la ayuda de los determinantes, x y y se puede encontrar con la regla de Cramer como
- x=Silencioc1b1c2b2SilencioSilencioa1b1a2b2Silencio=c1b2− − b1c2a1b2− − b1a2,Sí.=Silencioa1c1a2c2SilencioSilencioa1b1a2b2Silencio=a1c2− − c1a2a1b2− − b1a2.{displaystyle {begin{aligned}x limit={frac {begin{vmatrix}{color {fnK} {fnK}} {fnK}}\\\\fnfn}} {fn}} {fn}} {\fn}}}}}} {\\\\\\\\\\\\\\fn}}}}}}\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\\fn}}}}}}}}}}}}}}\\\\\\\\\\\\\\ {fn} {fn} {fn} {fn}}} {begin{vmatrix}a_{1} {}}a_{2} {2}d}d}gn}fn} {fn}}={color}}}}}}}}} {c}}}} {c}}}}}} {p}}}}}}}}}}}}} {p}}}}}}}}}}}}}}} {p} {p}} {p}}} {p}}}}}}}}}}}}}}}}}}}}}}}}}}}p}p}pp}p}p}p}p}p}pp}p}pp}p}p}p}p}p}p}p}p}p}p}p}p}p} {}c_{1}b_{2}-b_{1}{color} {red}c_{2} over a_{1}b_{2}-b_{1}a_{2}quad Y... {begin{vmatrix}a_{1} {color} {c} {c}}a_{2}} {c}} {c}}} {c}}}}a_{2} {c}}} {c}}}} {c}}}}}} {cc}}}}}} {c}}}}}}}}}}}a_ {c}}}}}}}}}}}}}}}}}}}\\\\ccc}}}}}}}}}}}}}}}}}}}}}}}}}\\\\\c}}}}}}}}}}}}}}}}}\\\\\\\\\\\\\\\\\a_}}}}}}}}}}}}}} {c}}}}{2}{2}}}}}}}}}}}}}}} {fn} {fn} {fnK} {fn} {fn}} {fn}} {c}}} {c}}}}} {cc}}} {fn}}} {fn}}}} {p}} {c}} {c}}} {c}}}}} {p}}} {p}}}}}}}}}}}} {p}}}}}}} {c}}}}} {p}}}}} {p}}} {p}}}}}}}}}c}}}}}}}} {p}}}}p}p} {cp} {p}p}}ccp}cccccp}ccccc}c}cc}ccc}}cc}}}}}c} {}c_{2}-{color} {red}c_{1}a_{2} over a_{1}b_{2}-b_{1}end{aligned}}
Las reglas para matrices 3 × 3 son similares. Dado
- {}a1x+b1Sí.+c1z=d1a2x+b2Sí.+c2z=d2a3x+b3Sí.+c3z=d3{displaystyle left{begin{matrix}a_{1}x+b_{1}y+c_{1}z limit={color {red}d_{1}a_{2}x+b_{2}y+c_{2}z sensible={color {red}d_{2}a_{3}x+b_{3}y+c_{3}z sensible={color Bien.
que en formato matricial es
- [a1b1c1a2b2c2a3b3c3][xSí.z]=[d1d2d3].{begin} {begin}{2}a_{3} {3} {3}} {3}}} {} {}}} {b} {c}} {cc}c} {c}} {cc} {c}} {b}} {cccH0}}} {b}ccccccccc}}}ccccccccccccc}}cccccc}c}cccc}c}ccc}c}c}ccc}ccccccccccccc}c}ccc}}cccc}cc}ccc}}cc}}} {red}d_{1}\\\\fnMicrosoft} {red}d_{2}\\\\fnMicrosoft} {red}d_{3}end{bmatrix}}}
Entonces los valores de x, y y z se puede encontrar de la siguiente manera:
- x=Silenciod1b1c1d2b2c2d3b3c3SilencioSilencioa1b1c1a2b2c2a3b3c3Silencio,Sí.=Silencioa1d1c1a2d2c2a3d3c3SilencioSilencioa1b1c1a2b2c2a3b3c3Silencio,yz=Silencioa1b1d1a2b2d2a3b3d3SilencioSilencioa1b1c1a2b2c2a3b3c3Silencio.{displaystyle x={fracbegin{vmatrix}{color {red}d_{1} {1} {1} {0}} {c}} {c}} {c}} {c}} {c}}} {}} {c}}}}} {c}} {c}}}}} {\\\c}}}}}}}}} {\c}}}}}}}}}}} {\\\ {\\\\\c}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {\\\\\\\\\\}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {}d_{2} {2} {2} {2} {2}\\\\\cH0} {}d_{3} {3} {3} {3} {3}end{vmatrix}{begin{vmatrix}a_{1} {1} {c_{1}a_{2} {2} {2}} {2} {2}}a_{3}}} {3}}} {3}}}} {3}}}}dc}c}c}c}cc}c}c}c}c}c}c}c}c}c}ccc}cc}c}ccc}c}c}c}c}cc}c}c}cccc}ccccccccc}ccccc}c}cccccc}ccc}c}cc Y... {begin{vmatrix}a_{1} {color} {}d_{1} {0} {0}}a_{2} {}d_{2} {2} {2}a_{3} {} {c} {c} {c} {c}} {c}}} {cc}} {c}} {c_}c} {}}} {cc}} {c}} {c} {c}} {c}} {c} {c}}} {c}} {c} {c}}} {c}}}}} {}}}}} {c} {c}}} {c}}}} {c} {c}} {c}}}} {c}}} {c}}}}}}}}}} {c} {c}}}}} {c} {c} {c} {c} {c}c}}} {cc}c}c}}}}}}} {c} {c} {c}}}}c}c}}}}}}}}}}}}}}} {red}d_{1}a_{2} {}d_{2}a_{3} {3} {red}d_{3}end{vmatrix}{begin{vmatrix}a_{1} limitb_{1} {1}a_{2} limitb_{2} {c_{2}a_{2}a_{3} {3} {3}} {3}}}end{vmatrix}}}}}} {}} {}} {}}}}}} {}}}} {}}}}}}} {}}}}}}}} {}} {}}}}}}}} {} {}}}} {}}}}}}}} {}}}}}}}}}} {} {}}}}}}}}} {} {}}}} {}}}}} {}}}}}}}} {}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}
Geometría diferencial
Cálculo de Ricci
La regla de Cramer se usa en el cálculo de Ricci en varios cálculos que involucran los símbolos de Christoffel de primer y segundo tipo.
En particular, la regla de Cramer se puede utilizar para demostrar que el operador de divergencia en un manifold Riemanniano es invariante con respecto al cambio de coordenadas. Damos una prueba directa, suprimiendo el papel de los símbolos de Christoffel. Vamos ()M,g){displaystyle (M,g)} ser un manifold Riemanniano equipado con coordenadas locales ()x1,x2,...... ,xn){displaystyle (x^{1},x^{2},dotsx^{n} }. Vamos A=Ai∂ ∂ ∂ ∂ xi{displaystyle A=A^{i}{frac {partial }{partial # ser un campo vectorial. Utilizamos la convención de sumas en todo el mundo.
- Theorem.
- El divergencia de A{displaystyle A},
- div A=1Detg∂ ∂ ∂ ∂ xi()AiDetg),{displaystyle operatorname {div} A={frac {fn} {fn} {fnMicroc {fnMicrosoft} {fnMicrosoft} {fn}} {fn} {fn}}} {fn}} {fn}} {fn} {f}}} {fn}}} {fnfnf}fn}}f} {f}f}f}f}f}f}f}f}fnf}f}f}f}fn}f}fnfnfn}}}fnf}}}}fnf}f}fnfnfnfnfnfn}}}}fnfnfnfnfnfn}}}fn}}fn}}fnfn}}fn}}}}}}}}}}}}}}} } {partial x^{i}}left(A^{i}{sqrt {det g}right),}
- es invariante bajo cambio de coordenadas.
Prueba |
---|
Vamos ()x1,x2,...... ,xn)↦ ↦ ()x̄ ̄ 1,...... ,x̄ ̄ n){displaystyle (x^{1},x^{2},ldotsx^{n}mapsto ({bar {x}}} {1}}ldots{bar {x}}}}}}} {n}}} {n}}} ser una transformación de coordenadas con Jacobian no-singular. Entonces las leyes de transformación clásica implican que A=Ā ̄ k∂ ∂ ∂ ∂ x̄ ̄ k{displaystyle A={bar {fnK} {fnK}} {fnK}}}} {fn}}}}} {fn}}}}}}}} {fn} {fn}}}} {fn}}} {fn}}}} {f}}} {f}}}}} {f}}}}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}} {f}}}}}}} {f}}}}}}}}}}}} {f}}}}}}}}}}}}}}} {f}}}}} {f}} {f}}}}}}}}}}} {f}}}}}}}}}}} {f}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} Donde Ā ̄ k=∂ ∂ x̄ ̄ k∂ ∂ xjAj{displaystyle {bar} {fnK} {fnMicroc {b} {b}} {f} {f}} {fn}}}} {f}}} {fn}}}}}} {f}}}}} {f}}}}}}} {f}fnf}fnf}}}}}}}}}}}}}}}}}} {f}}f}}}}}}}}}}}}} {m}}}}}}}}}} {m}}}}}}}}}}}}}}}}} {f} {f}}} {f} {f}}}} {f}}}}}}}}}}}}}}}}}}f}f}}}}}}}}}}}}}}}}}} {f}f}}}}}}}}}}}}}}}}} ¿Qué?. Del mismo modo, si g=gmkdxm⊗ ⊗ dxk=ḡ ̄ ijdx̄ ̄ i⊗ ⊗ dx̄ ̄ j{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {\fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}, entonces ḡ ̄ ij=∂ ∂ xm∂ ∂ x̄ ̄ i∂ ∂ xk∂ ∂ x̄ ̄ jgmk{fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif} {f} {fnMicrosoft}} {fnMicrosoft Sans Serif} {fnMicrosoft}} {fnMicros}} {fnMicrosoft} {fnMicrosoft} {f}}}}}}f}}}}}}f}}}}}f}f}f}f}f}f}f}f} {f}f}f}f}}f}f}f}f}f}f}f}f}}fnMicrob}}fnMicrosigual}f}}}fnMisigual}f}f}f}fnMicrob} {fnMicrob}}}}}}}}}}}}}}}}}}}}} {fnK} {fnK} {fnK}} {fnK}} {fnK}}} {fn}} {fnK}}}} {fnK}} {fnK}}} {fn}}}} {f}}}}}}}} {fnMicroc {f}f}f} {f}f}f}}f}\\f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}f}fnf}f}f}f}f}f}f}\f}f}f}f}f}fnMicroc}f}\\\\\f}f}f}fn {fnMicrosoft Sans Serif} {fnMicrosoft Sans Serif}} {fnK}} {fnK}}} {fnK}}} {fnK}} {fnK}} {fnK}}}} {fnK}}}} {fnK}}}}} {f}}}}}}}} {f}}}}}}}}}}}}}} {b}}}}}}}}}}}} {f}}}}}} {f}}}} {f}}}}}}}}}}}}}}}}}} {f}}}}}}}}}}}}}}} {f}}}}}}}}}}} {b} {f}}}}}}}}}}}}} {b}}}}}}}}}}}}}}}} {b}}}}}}}}}}}}. Escribir esta ley de transformación en términos de rendimientos matrices ḡ ̄ =()∂ ∂ x∂ ∂ x̄ ̄ )Tg()∂ ∂ x∂ ∂ x̄ ̄ ){displaystyle {bar {g}}}right)}{text{frac {partial x}{partial {bar {x}}}}}right)}{text{T}gleft({frac {partial x}{partial {b}}}}}}}}}}right)}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}, lo que implica Detḡ ̄ =()Det()∂ ∂ x∂ ∂ x̄ ̄ ))2Detg{displaystyle det {bar {}=left(det left({frac {partial x}{partial {bar {x}}}}}right)}det g}det g}. Ahora un computo
Para demostrar que esto es igual 1Detḡ ̄ ∂ ∂ ∂ ∂ x̄ ̄ k()Ā ̄ kDetḡ ̄ ){fnh} {fnh} {fnh} {fnh} {fnh} {fnh} {fn} {fnh} {fnh} {fnh}}}}bh} {fn}}} {fnh}}} {fnh}}}}}}}}} {p}}}}}}}}}}}}}}}}}}} {m}}}}}}}}}}}}}}} {b}}}} {b}}}}} {b}} {b}}}}}}}}}}} {b}}} {b}}}}}}}} {b}}}}}}}}}}}} {b}}}}}}}}}}}}}}}} {b}}}}}}}}}}}}}}}}}}}}}}}}}}}}}}} {, es necesario y suficiente para demostrar que
que equivale a
Realizando la diferenciación en el lado izquierdo, obtenemos:
Donde M()iSilencioj){displaystyle M(i imperj)} denota la matriz obtenida de ()∂ ∂ x∂ ∂ x̄ ̄ ){displaystyle left({frac {partial x}{partial {bar {x}}right)} eliminando el i{displaystyle i}a j{displaystyle j}la columna. Pero la Regla de Cramer dice que
es ()j,i){displaystyle (j,i)}a la entrada de la matriz ()∂ ∂ x̄ ̄ ∂ ∂ x){displaystyle left({frac {bar {x}}{partial x}right)}}. Así
completando la prueba. |
Computar derivadas implícitamente
(feminine)Considere las dos ecuaciones F()x,Sí.,u,v)=0{displaystyle F(x,y,u,v)=0} y G()x,Sí.,u,v)=0{displaystyle G(x,y,u,v)=0}. Cuando u y v son variables independientes, podemos definir x=X()u,v){displaystyle x=X(u,v)} y Sí.=Y()u,v).{displaystyle y=Y(u,v). }
Una ecuación para ∂ ∂ x∂ ∂ u{displaystyle {dfrac {partial x}{partial u}}} se puede encontrar aplicando la regla de Cramer.
Cálculo de ∂ ∂ x∂ ∂ u{displaystyle {dfrac {partial x}{partial u}}} |
---|
Primero, calcula los primeros derivados de F, G, x, y Sí.:
Sustitución dx, dy en dF y dG, tenemos:
Desde u, v son ambos independientes, los coeficientes de du, Dv debe ser cero. Así podemos escribir ecuaciones para los coeficientes:
Ahora, por la regla de Cramer, vemos que:
Esta es ahora una fórmula en términos de dos Jacobianos:
fórmulas similares pueden derivarse para ∂ ∂ x∂ ∂ v,∂ ∂ Sí.∂ ∂ u,∂ ∂ Sí.∂ ∂ v.{displaystyle {frac {partial x}{partial v}}{frac {partial y}{partial u}}}}{frac {partial y}{partial}{partial} {f} {f}} {f}}} {f}f}fnKf}. |
Programación entera
La regla de Cramer se puede utilizar para demostrar que un problema de programación entera cuya matriz de restricciones es totalmente unimodular y cuyo lado derecho es entero, tiene soluciones básicas enteras. Esto hace que el programa entero sea sustancialmente más fácil de resolver.
Ecuaciones diferenciales ordinarias
La regla de Cramer se utiliza para obtener la solución general de una ecuación diferencial lineal no homogénea mediante el método de variación de parámetros.
Interpretación geométrica
La regla de Cramer tiene una interpretación geométrica que puede considerarse también una prueba o simplemente dar una idea de su naturaleza geométrica. Estos argumentos geométricos funcionan en general y no solo en el caso de dos ecuaciones con dos incógnitas que se presentan aquí.
Dado el sistema de ecuaciones
- a11x1+a12x2=b1a21x1+a22x2=b2{displaystyle {begin{matrix}a_{11}x_{1}+a_{12}x_{2} limit=b_{1}a_{21}x_{1}+a_{22}x_{2} {2} {2}end{matrix}}}}}}}}}}}}}} {}}}}}}}} {}}}}}}}}}}}}}}} {}}}}}}}}}}}}}}}}}}}}}}}}} {
puede considerarse como una ecuación entre vectores
- x1()a11a21)+x2()a12a22)=()b1b2).{displaystyle x_{1}{binom {a_{11}{a_{21}}+x_{2}{2}{binom {a_{12}{a_{22}}={binom {b_{1} {b_{2}}}}
El área del paralelograma determinado por ()a11a21){displaystyle {binom} {a_{11}{a_{21}}} y ()a12a22){displaystyle {binom} {a_{12}{a_{22}}} es dado por el determinante del sistema de ecuaciones:
- Silencioa11a12a21a22Silencio.{displaystyle {begin{vmatrix}a_{11} {12}a_{21} {22}end{vmatrix}}}}
En general, cuando hay más variables y ecuaciones, el determinante de n vectores de longitud n dará el volumen del paralelepípedo determinado por esos vectores en la n-ésimo espacio euclidiano dimensional.
Por lo tanto, el área del paralelograma determinado por x1()a11a21){displaystyle x_{1}{binom {a_{11}{a_{21}}} y ()a12a22){displaystyle {binom} {a_{12}{a_{22}}} tiene que ser x1{displaystyle x_{1}} veces el área del primero desde que uno de los lados ha sido multiplicado por este factor. Ahora, este último paralelograma, por principio de Cavalieri, tiene la misma área que el paralelograma determinado por el ()b1b2)=x1()a11a21)+x2()a12a22){displaystyle {binom} {B_{1}{b_{2}}=x_{1}{binom} {b} {cH}}}} {b}}}} {cH}}}} {cH}} {cH}}}}} {b}}}}}}}}} {b}}}}}}}} {b}}}}}} {} {}}}}}}} {b}}}}}}}}} {b}}} {b}}}}}}}}}}}} {} {b}}}}}}}}}}}}}}}}}}}}}}}} {}}}}}}} {b}}} {b}} {b}}} {b}}}}}}}} {}}}}}}}}}}}}}}}}}}}}} {c}}}}}}}} {}}}}}}}}}}}}}} { {a_{11}{a_{21}}+x_{2}{2}{binom {a_{12}{a_{22}}} y ()a12a22).{displaystyle {binom} {a_{12}{a_{22}}}
Al igualar las áreas de este último y el segundo paralelogramo se obtiene la ecuación
- Silenciob1a12b2a22Silencio=Silencioa11x1a12a21x1a22Silencio=x1Silencioa11a12a21a22Silencio{c} {c} {c} {c} {c}} {c}} {c} {c} {c}} {c}} {c} {c} {c} {c} {c} {c}c} {c} {c} {c}} {c}} {c}} {c}}} {c}}}}}}} {c}}}} {c}}}}}}} {c}} {c} {c}} {c}}}}} {c}}}}} {c}}}}}}}}}} {c}}}}} {c} {c}}}} {c}}} {c}}}}} {c} {c} {c} {c} {c} {c}}}c}}}}}}}c}}}}}}}}}}}}}}}}
de donde se sigue la regla de Cramer.
Otras pruebas
Una demostración por álgebra lineal abstracta
Esta es una reafirmación de la prueba anterior en lenguaje abstracto.
Considerar el mapa x=()x1,...... ,xn)↦ ↦ 1DetA()Det()A1),...... ,Det()An)),{displaystyle mathbf {x} =(x_{1},ldotsx_{n})mapsto {frac {1}{det A}det(det(A_{1}),ldotsdet(A_{n})right),}}} Donde Ai{displaystyle A_{i} es la matriz A{displaystyle A} con x{displaystyle mathbf {x} sustituida en el i{displaystyle i}como en la regla de Cramer. Debido a la linealidad de determinante en cada columna, este mapa es lineal. Observa que envía el i{displaystyle i}columna de A{displaystyle A} a la i{displaystyle i}vector ei=()0,...... ,1,...... ,0){displaystyle mathbf {e} _{i}=(0,ldots1,ldots0)} (con 1 en el i{displaystyle i}t lugar), porque el determinante de una matriz con una columna repetida es 0. Así que tenemos un mapa lineal que está de acuerdo con el inverso de A{displaystyle A} en el espacio de la columna; por lo tanto, está de acuerdo con A− − 1{displaystyle A^{-1} en el espacio de la columna. Desde A{displaystyle A} es invertible, los vectores de columna abarcan todo Rn{displaystyle mathbb {R} {} {}} {fn}}, por lo que nuestro mapa realmente es el inverso de A{displaystyle A}. La regla de Cramer sigue.
Una breve prueba
Una prueba corta de la regla de Cramer se puede dar notando que x1{displaystyle x_{1}} es el determinante de la matriz
- X1=[x100⋯ ⋯ 0x210⋯ ⋯ 0x301⋯ ⋯ 0⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋱ ⋱ ⋮ ⋮ xn00⋯ ⋯ 1]{displaystyle X_{1}={begin{bmatrix}x_{1} diez0 ventaja0cdots >x_{2} limit1 mutuamente0cdots >x_{3} limit0 implica1cdots {x}}}
Por otro lado, suponiendo que nuestra matriz original A es invertible, esta matriz X1{displaystyle X_{1} tiene columnas A− − 1b,A− − 1v2,...... ,A− − 1vn{displaystyle A^{-1}mathbf {b}A^{-1}mathbf {v} _{2},ldotsA^{-1}mathbf {v} _{n}, donde vn{displaystyle mathbf {v} _{n} es n-a columna de la matriz A. Recuerda que la matriz A1{displaystyle A_{1} tiene columnas b,v2,...... ,vn{displaystyle mathbf {b}Mathbf {v} _{2},ldotsmathbf {v} ¿Qué?, y por consiguiente X1=A− − 1A1{displaystyle ¿Qué?. Por lo tanto, utilizando que el determinante del producto de dos matrices es el producto de los determinantes, tenemos
- x1=Det()X1)=Det()A− − 1)Det()A1)=Det()A1)Det()A).{displaystyle x_{1}=det(X_{1})=det(A^{-1})det(A_{1})={frac {det(A_{1})}{det(A)}}}} {det {det {det {det {det}}}}}}}} {
La prueba para otros xj{displaystyle x_{j} es similar.
Casos incompatibles e indeterminados
Se dice que un sistema de ecuaciones es incompatible o inconsistente cuando no tiene soluciones y se llama indeterminado cuando tiene más de una solución. Para ecuaciones lineales, un sistema indeterminado tendrá infinitas soluciones (si se trata de un campo infinito), ya que las soluciones se pueden expresar en términos de uno o más parámetros que pueden tomar valores arbitrarios.
La regla de Cramer se aplica al caso en el que el determinante del coeficiente es distinto de cero. En el caso de 2x2, si el determinante del coeficiente es cero, entonces el sistema es incompatible si los determinantes del numerador son distintos de cero, o indeterminado si los determinantes del numerador son cero.
Para sistemas de 3×3 o superiores, lo único que se puede decir cuando el determinante del coeficiente es igual a cero es que si alguno de los determinantes del numerador es distinto de cero, entonces el sistema debe ser incompatible. Sin embargo, tener todos los determinantes cero no implica que el sistema sea indeterminado. Un ejemplo simple donde todos los determinantes desaparecen (igual a cero) pero el sistema sigue siendo incompatible es el sistema 3×3 x+y+z= 1, x+y+z=2, x+y+z=3.
Contenido relacionado
Clasificación de cubeta
Subespacio lineal
Teorema integral de Cauchy