sábado, 26 de mayo de 2012

Método de Cramer



La regla de Cramer es un teorema en álgebra lineal, que da la solución de un sistema lineal de ecuaciones en
 términos de determinantes. Recibe este nombre en honor a Gabriel Cramer (1704 - 1752), quien publicó la regla
en su Introduction à l'analyse des lignes courbes algébriques de 1750, aunque Colin Maclaurin también publicó el
método en su Treatise of Geometry de 1748 (y probablemente sabía del método desde 1729).1
La regla de Cramer es de importancia teórica porque da una expresión explícita para la solución del sistema.
 Sin embargo, para sistemas de ecuaciones lineales de más de tres ecuaciones su aplicación para la resolución
del mismo resulta excesivamente costosa: computacionalmente, es ineficiente para grandes matrices y por ello
no es usado en aplicaciones prácticas que pueden implicar muchas ecuaciones. Sin embargo, como no es
necesario pivotar matrices, es más eficiente que la eliminación gaussiana para matrices pequeñas, particularmente cuando son usadas operaciones SIMD.
Si \mathbf{Ax} = \mathbf{b} es un sistema de ecuaciones. \mathbf{A} es la matriz de coeficientes del sistema,
 \mathbf{x} = (x_1,\dots,x_n) es el vector columna de las incógnitas y \mathbf{b} es el vector columna de los términos
 independientes. Entonces la solución al sistema se presenta así:

   x_j =
   \cfrac {
      \det(\mathbf{A}_j)
   }{
      \det(\mathbf{A})
   }
donde \mathbf{A}_j es la matriz resultante de reemplazar la j-ésima columna de \mathbf{A} por el vector columna \mathbf{b}.
Hágase notar que para que el sistema sea compatible determinado, el determinante de la matriz \mathbf{A} ha de ser
no nulo.

Sistema de 2 ecuaciones con 2 incógnitas

Para la resolución de un sistema de dos ecuaciones con dos incógnitas, de la forma. Dado el sistema de
ecuaciones:

   \begin{cases} 
      a{\color{blue}x} + b{\color{blue}y} = {\color{red}e}\\ 
      c{\color{blue}x} + d{\color{blue}y} = {\color{red}f}
   \end{cases}
Lo representamos en forma de matrices:

   \begin{bmatrix}
       a & b \\
       c & d 
   \end{bmatrix}
   \begin{bmatrix}
      {\color{blue}x} \\
      {\color{blue}y}
   \end{bmatrix}=
   \begin{bmatrix}
      {\color{red}e}  \\
      {\color{red}f}
   \end{bmatrix}
Entonces, x e y pueden ser encontradas con la regla de Cramer, con una división de determinantes, de la
siguiente manera:

   x =
   \frac {
      \begin{vmatrix}
         \color{red}{e} & b \\
         \color{red}{f} & d
      \end{vmatrix}
   }{
      \begin{vmatrix}
         a & b \\
         c & d
      \end{vmatrix}
   } = 
   \frac{
      {\color{red} e } d - b {\color{red} f }
   }{
      ad - bc
   }; \quad
   y =
   \frac {
      \begin{vmatrix}
         a & \color{red}{e} \\
         c & \color{red}{f}
      \end{vmatrix}
   }{
      \begin{vmatrix}
         a & b \\
         c & d
      \end{vmatrix}
   } = 
   \frac{
      a{\color{red} f } - {\color{red} e } c 
   }{
      ad - bc
   }

[editar]Sistema de 3 ecuaciones con 3 incógnitas

La regla para un sistema de tres ecuaciones con tres incógnitas es similar, con una división de determinantes:

   \begin{cases} 
      a{\color{blue}x} + b{\color{blue}y} + c{\color{blue}z} = {\color{black}j}\\ 
      d{\color{blue}x} + e{\color{blue}y} + f{\color{blue}z} = {\color{black}k}\\
      g{\color{blue}x} + h{\color{blue}y} + i{\color{blue}z} = {\color{black}l}
   \end{cases}
Que representadas en forma de matriz es:

   \begin{bmatrix}
      a & b & c \\
      d & e & f \\
      g & h & i
   \end{bmatrix}
   \begin{bmatrix}
      {\color{blue}x} \\
      {\color{blue}y} \\
      {\color{blue}z}
   \end{bmatrix} =
   \begin{bmatrix}
      {\color{red}j} \\
      {\color{red}k} \\
      {\color{red}l} 
   \end{bmatrix}
xyz pueden ser encontradas como sigue:

   x =
   \frac {
      \begin{vmatrix}
         {\color{red}j} & b & c \\
         {\color{red}k} & e & f \\
         {\color{red}l} & h & i
      \end{vmatrix}
   }{
      \begin{vmatrix} a & b & c \\
         d & e & f \\
         g & h & i
      \end{vmatrix}
   }; \quad
   y =
   \frac {
      \begin{vmatrix}
         a & {\color{red}j} & c \\
         d & {\color{red}k} & f \\
         g & {\color{red}l} & i
      \end{vmatrix}
   }{
      \begin{vmatrix}
         a & b & c \\
         d & e & f \\
         g & h & i
      \end{vmatrix}
   } , \quad
   z =
   \frac {
      \begin{vmatrix}
         a & b & {\color{red}j} \\
         d & e & {\color{red}k} \\
         g & h & {\color{red}l}
      \end{vmatrix}
   }{
      \begin{vmatrix}
         a & b & c \\
         d & e & f \\
         g & h & i
      \end{vmatrix}
   }

[editar]Demostración

Sean:

   \mathbf x =
   \begin{pmatrix}
      x_1 \\
      x_2 \\
      x_3
   \end{pmatrix}
   ; \quad
   \mathbf A =
   \begin{bmatrix}
      a_{1,1} & \cdots & a_{1,n} \\
      \vdots & \ddots & \vdots \\
      a_{n,1} & \cdots & a_{n,n}
   \end{bmatrix}
   ; \quad
   \mathbf b =
   \begin{pmatrix}
      b_1 \\
      b_2 \\
      b_3
   \end{pmatrix}

   \mathbf A_j =
   \left [
      \begin{array}{llllllll}
         a_{1,1}   & \cdots & a_{1,j-1}  & b_1     & a_{1,j+1}   & \cdots & a_{1,n}   \\
         a_{2,1}   & \cdots & a_{2,j-1}  & b_2     & a_{2,j+1}   & \cdots & a_{2,n}   \\
                                                                                      \\
         \vdots    &        &            & \ddots  &             &        & \vdots    \\
                                                                                      \\
         a_{n-1,1} & \cdots & a_{n-1,j-1}& b_{n-1} & a_{n-1,j+1} & \cdots & a_{n-1,n} \\
         a_{n,1}   & \cdots & a_{n,j-1}  & b_n     & a_{n,j+1}   & \cdots & a_{n,n}
      \end{array}
   \right ]
Usando las propiedades de la multiplicación de matrices:

   \mathbf A \mathbf x = \mathbf b \Leftrightarrow
   \mathbf A^{-1} \mathbf A \mathbf x = \mathbf A^{-1} \mathbf b \Leftrightarrow
   \mathbf{Ix} = \mathbf A^{-1} \mathbf b \Leftrightarrow
   \mathbf x = \mathbf A^{-1} \mathbf b
entonces:

   \mathbf x = \mathbf A^{-1} \mathbf b =
   \frac{
      (\operatorname{Adj} \mathbf A)^t
   }{
      \left|
         \mathbf A
      \right|
   } \;
   \mathbf b

   (\operatorname{Adj}\mathbf A)^t =
   \frac{\mathbf A^\prime_{pl}}{\mathbf A^\prime_{pl}} =
    \mathbf A_{lp}
Por lo tanto:

   \mathbf A^{-1} \mathbf b =
   \sum_{i=1}^n
   \frac{
      \mathbf A^\prime_{ji}
   }{
      \left |
         \mathbf A
      \right |
   }
   b_{ik} =
   \frac{
      \sum_{i=1}^n \mathbf A_{ij} b_i
   }{
      \left |
         \mathbf A 
      \right |
   }
   =
   \cfrac {
      \left |
         \mathbf A_j
      \right |
   }{
      \left |
         \mathbf A
      \right |
   }
Aparte, recordando la definición de determinante, la sumatoria definida acumula la multiplicación del elemento
 adjunto o cofactor de la posición ij, con el elemento i-ésimo del vector \mathbf B (que es precisamente el elemento
 i-èsimo de la columna j, en la matriz \mathbf{A}_j).

No hay comentarios:

Publicar un comentario