Matriz inversa.

5:50 p.m. 0 Comments

 Matriz inversa.

Entender los conceptos elementales del álgebra lineal y los aplicará en problemas del ámbito económico y de gestión de negocios.


Matriz de dos filas (Matriz Adjunta)

Dada una matriz de 2x2 con determinante no nulo:
\mathbf{A}^{-1} = \begin{bmatrix} a & b \\ c & d \end{bmatrix}^{-1} =
\frac{1}{\det(\mathbf{A})} \begin{bmatrix} \,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix} = \frac{1}{ad - bc} \begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix}
Está definida siempre y cuando ad-bc \ne 0. Así por ejemplo la inversa de la matriz
    \begin{bmatrix}  2 & 1 \\  5 & 3 \end{bmatrix} \mapsto \begin{bmatrix}  2 & 1 \\  5 & 3 \end{bmatrix}^{-1} = \begin{bmatrix}  3 & -1 \\  -5 & 2 \end{bmatrix}, ya que  \begin{bmatrix}  2 & 1 \\  5 & 3 \end{bmatrix}  \begin{bmatrix}  3 & -1 \\  -5 & 2 \end{bmatrix}= \begin{bmatrix}  1 & 0 \\  0 & 1 \end{bmatrix}
Dada una matriz de 3x3 con determinante no nulo:

\mathbf{A}^{-1} = \begin{bmatrix}
a & b & c\\ d & e & f \\ g & h & i\\
\end{bmatrix}^{-1} =
\frac{1}{\det(\mathbf{A})} \begin{bmatrix}
\, A & \, B & \,C \\ \, D & \, E & \, F \\ \, G & \, H & \, I\\
\end{bmatrix}^T =
\frac{1}{\det(\mathbf{A})} \begin{bmatrix}
\, A & \, D & \,G \\ \, B & \, E & \,H \\ \, C & \,F & \, I\\
\end{bmatrix}


\begin{matrix}
A = (ei-fh)  & D = -(bi-ch) & G = (bf-ce)  \\
B = -(di-fg) & E = (ai-cg)  & H = -(af-cd) \\
C = (dh-eg)  & F = -(ah-bg) & I = (ae-bd)  \\
\end{matrix}

Propiedades de la matriz inversa

  • La inversa de una matriz, si existe, es única.
  • La inversa del producto de dos matrices es el producto de las inversas cambiando el orden:

\left  (A \cdot B  \right ) ^{-1} = {B}^{-1} \cdot {A}^{-1}
  • Si la matriz es invertible, también lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir:

\left(A^{T}\right)^{-1} = \left(A^{-1}\right)^{T}
  • Y, evidentemente:

\left(A^{-1}\right)^{-1} = A
  • Una matriz es invertible si y sólo si el determinante de A es distinto de cero. Además la inversa satisface la igualdad:

{A^{-1}} =  {1 \over {\begin{vmatrix} A \end{vmatrix}}} \operatorname{adj} (A) \
donde   { {\begin{vmatrix} A \end{vmatrix}}} es el determinante de A y  \operatorname{adj}{(A)} \ es la matriz de adjuntos de A.

Demostración de la unicidad de la inversa

Supongamos que B y C son inversas de A

 AB=BA=I

 AC=CA=I
Multiplicando por C

 (BA)C=IC=C

 (BA)C=B(AC)=BI=B
De modo que B=C y se prueba que la inversa es única.

Demostración del criterio de inversibilidad de las matrices cuadradas

Se probará la doble implicación.

Suficiencia (\Rightarrow)

Suponiendo que existe B tal que AB = BA = I. Entonces al aplicar la función determinante se obtiene

\det\left(AB\right)=\det\left(BA\right)=\det\left(I\right)
usando la propiedad \det(I) = 1

\det\left(A\right)\det\left(B\right)=1
Por lo tanto, \det(A) es distinto de cero.

\det\left(A\right)\neq0

Necesidad (\Leftarrow)

Suponiendo que el determinante de A es distinto de cero, sea a_{ij} es el elemento ij de la matriz  A y sea A_{ij} la matriz A sin la fila i y la columna j (comúnmente conocida como j-ésimo menor de A). Entonces

 \det(A)= \sum_{i=1}^n (-1)^{i+j}a_{ij}\det(A_{ij})
Sea k\neq j, entonces

 \sum_{i=1}^n (-1)^{i+j}a_{ik}\det(A_{ij})=0
Esta afirmación es válida por propiedades de los determinantes, pues la parte izquierda de la relación es el determinante de la matriz A con la columna j igual a la columna k y los demás términos iguales a los de A. Entonces

 \delta_{jk}\det\left(A\right)= \sum_{i=1}^n (-1)^{i+j}\det\left(A_{ij}\right)a_{ik}
donde \delta_{jk} = 1 cuando j=k y \delta_{jk} = 0 cuando j\neq k. Entonces

\det\left(A\right)I = \left(\mbox{adj}(A)\right)A
Es decir que A tiene inversa izquierda

\frac{\left(\text{adj}(A)\right)^T}{\det\left(A\right)}
Como \left(\text{adj}(A)\right)^T = \text{adj}\left(A^T\right), entonces A^T también tiene inversa izquierda que es

\frac{\left(\text{adj}(A^T)\right)^T}{\det\left(A^T\right)}= \frac{\text{adj}(A)}{\det\left(A\right)}
Entonces

\frac{\text{adj}(A)}{\det\left(A\right)}A^T=I
luego, aplicando la transpuesta

A\frac{\left(\text{adj}(A)\right)^T}{\det\left(A\right)}=I
Que es lo que se quería demostrar

Métodos de inversión de matrices

Solución analítica

Inversión de matrices 2×2

Calcular la matriz inversa en matrices de 2x2 puede ser muy sencillo. Se puede hacer de la siguiente manera:1

\mathbf{A}^{-1} = \begin{bmatrix}
a & b \\ c & d \\ 
\end{bmatrix}^{-1} =
\frac{1}{\det(\mathbf{A})} \begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix} =
\frac{1}{ad - bc} \begin{bmatrix}
\,\,\,d & \!\!-b \\ -c & \,a \\ 
\end{bmatrix}
Esto es posible siempre y cuando ad - bc, el determinante de la matriz, no sea cero.

Ejemplo numérico:


C = \begin{bmatrix}
1 & 2 \\ 3 & 4 \\
\end{bmatrix} ,     \      
C^{-1} = \begin{bmatrix}
1 & 2 \\ 3 & 4 \\
\end{bmatrix}^{-1} =
\frac1{-2} \begin{bmatrix}
4 & -2 \\ -3 & 1 \\
\end{bmatrix}

Inversión de matrices de órdenes superiores

Para matrices de órdenes superiores puede utilizarse la siguiente fórmula:

{A^{-1}} =  {1 \over {\begin{vmatrix} A \end{vmatrix}}} \ \operatorname{adj} (A)^T  \
Donde   { {\begin{vmatrix} A \end{vmatrix}}} es el determinante de A y  \ \operatorname{adj}{(A)} \ es la matriz de adjuntos de A.
Cuando la matriz tiene más de tres filas, está fórmula es muy ineficiente y conduce a largos cálculos. Hay métodos alternativos para calcular la matriz inversa que son bastante más eficientes.

Métodos numéricos

El método de eliminación de Gauss-Jordan puede utilizarse para determinar si una determinada matriz es invertible y para encontrar su inversa. Una alternativa es la descomposición LU, que descompone una matriz dada como producto de dos matrices triangulares, una inferior y otra superior, mucho más fáciles de invertir. Utilizando el método de Gauss-Jordan se coloca a la izquierda la matriz dada y a la derecha la matriz identidad. Luego por medio del uso de pivotes se intenta formar en la izquierda la matriz identidad y la matriz que quede a la derecha será la matriz inversa a la dada.

Grupo lineal

El conjunto de todas las matrices n\times n que admiten inversa se denota es una representación lineal del grupo lineal de orden n, denotado como \textrm{GL}(n). Este grupo tiene importantes aplicaciones en álgebra y física. Además \textrm{GL}(n) \subset M_{n\times n} es un conjunto abierto (con la topología inducida de \R ^{n^2}).






ARYA, J. C. (2009). Matemáticas aplicadas a la administración. México: Pearson Educacíon.



(2015). Matriz inversa.En: wikiped… Consultado elSábado, 14 de noviembre de 2015 Se encuentra en: https://es.wikipedia.org/wiki/Matriz_invertible

denisse

Some say he’s half man half fish, others say he’s more of a seventy/thirty split. Either way he’s a fishy bastard. Google

0 comentarios: