Sea (1) una transformación lineal (1)
. Un escalar (1) es un valor propio si existe un vector no nulo (1) tal que(1). Cualquier vector no nulo (1) que satisfaga
(A.24) |
es un vector propio asociado con el valor propio.
La definición implica que para un vector propio (1) el efecto de aplicarle la transformación lineal (1) que amplificarlo por el escalar(1). Esto implica que un vector y el vector transformado son colineales o paralelos y por lo tanto linealmente dependientes.
La definición E.30 se refiere estrictamente a valores y vectores propios por derecha, para distinguirlos de los valores y vectores propios por izquierda, que deben satisfacer(1). En este texto sólo se consideran los primeros, y por tanto se hace referencia a ellos simplemente como valores y vectores propios.
Teorema A.15 (1) es un valor propio de (1) s y sólo si satisface la ecuación
(A.25) |
donde (1) es la matriz identidad de igual orden que (1)
Demostración A.15 Si(1) es un valor propio de(1) entonces existe un vector(1) tal que
(1)
El término (1) puede escribirse como (1) para facilitar la factorización de
(1)
De acuerdo con el teorema E.13 esta ecuación tiene solución no trivial (existe un vector propio(1)) sí y sólo si
(1)
Como el determinante de una matriz no se afecta al multiplicar ésta por un escalar no nulo, podemos escribir
(1)
El teorema E.15 brinda una posibilidad para calcular los valores propios de(1): podemos construir el polinomio característico (1) y encontrar sus raíces. Cada raíz de (1) será un valor propio de(1). Los vectores propios pueden obtenerse directamente de (E.24)
Debido a que los valores propios resultan ser las raíces del polinomio característico, éstos pueden ser reales o complejos, diferentes o repetidos.
Definición A.31 Multiplicidad La multiplicidad(1) de un valor propio (1) es el número de veces que éste se repite como raíz del polinomio característico.
Ejemplo A.30 Obtener los valores y vectores propios de la matriz (1)
Se crea entonces un sistema de ecuaciones con infinitas soluciones: (1)
Se crea entonces un segundo sistema de ecuaciones con infinitas soluciones: (1)
Ejemplo A.31 Obtener los valores y vectores propios de la matriz
(1) Para ver las fórmulas seleccione la opción "Descargar" del menú superior
Consideremos una matriz n-cuadrada arbitraria:
Para ver las fórmulas seleccione la opción "Descargar" del menú superior
La matriz (A – l·In), donde In es la matriz identidad n-cuadrada y l un escalar indeterminado, se denomina matriz característica de A:
Para ver las fórmulas seleccione la opción "Descargar" del menú superior
Su determinante, det (A – l·In) , que es un polinomio en l, recibe el nombre de polinomio característico de A. Asimismo, llamamos a
det (A – l·In) = 0
ecuación característica de A.
Ejemplo 1:
Hallar la matriz característica y el polinomio característico de la matriz A:
Para ver las fórmulas seleccione la opción "Descargar" del menú superior
La matriz característica será (A – l·In). Luego:
Para ver las fórmulas seleccione la opción "Descargar" del menú superior
y el polinomio característico,
Para ver las fórmulas seleccione la opción "Descargar" del menú superior
Así pues, el polinomio característico es: l 2 – l + 4.
http://www.sectormatematica.cl/contenidos/policar.htm
a b a b λ 0 a – λ
Ejemplo 2 : Si A = c d , entonces A – λI = c d – 0 λ = c d – λ y p(λ) = det
( A – λ ) = (a –λ) (d – λ) – bc = λ2 – (a + d) + (ad – bc).
Según el teorema fundamental del álgebra, cualquier polinomio de grado n con coeficientes reales o complejos tiene exactamente n raíces (contando multiplicidades). Esto significa, por ejemplo, que el polinomio (λ – 1)5 tiene 5 raíces, todas iguales al numero 1. como cualquier valor característico de A es una raíz de la ecuación característica de A, concluye que
Contando multiplicidades, toda matriz de n x n tiene exactamente n valores característicos.
TEOREMA 2: Sea λ una valor propio de la matriz A de n x n y sea Eλ = { v: Av = λv }. Entonces Eλ es un subespacio de Cn.
Demostración: Si Av = λv, entonces ( A – λI )v = 0. Así Eλ es el espacio nulo de la matriz A – λI. que es un subespacio de Cn.
Algebra lineal 5ta edición Stanley I. Grossman McGraw Hill
DIAGONALIZACION DE UNA MATRIZ N X N
Matriz diagonalizable: Una matriz n x n es diagonolazible si existe una matriz diagonal D tal que A es semejante a D.
Observación: Si D es una matriz diagonal, entonces los valores propios son sus componentes en la diagonal. Si A es semejante a D, entonces Ay D tiene los mismos valores propios. Uniendo estos dos hechos se observa que si A es diagonaliizable, entonces A es semejante a una matriz diagonal cuyas componentes en la diagonal son los valores propios de A.
El siguiente teorema establece cuando una matriz es diagonazable.
TEOREMA 2: Una matriz A de n x n es diagonalizable si y solo si tiene n vectores propios linealmente independientes. En tal caso, la matriz diagonal D semejante a A esta dada por
Para ver la fórmula seleccione la opción "Descargar" del menú superior
donde λ1, λ2, ….. ,λn son los valore propios de A. Si C es una matriz cuyas columnas son vectores propios linealmente independientes de A, entonces
D = C-1AC
(3)
Demostración Primero se supone que A tiene n vectores propios linealmente independientes V1, V2, …, Vn que corresponden a los valores no propios (no necesariamente diferentes) λ1, λ2, …, λn.
Sea
C11 C12 C1n
C21 C22 C2n
V1 = , V2 = , …Vn =
Cn1 Cn2 Cnn
Y sea
C11 C12 … C1n
C21 C22 … C2n
C =
Cn1 Cn2 … Cnm
Entonces C es invertible ya que sus columnas son linealmente independientes. Ahora bien
A11 A12 … A1n C11 C12 … C1n
A21 A22 … A2n C21 C22 … C2n
AC =
An1 An2 … Ann Cn1 Cn2 … Cnn
C1
Y se ve que la columna AC es A = C2i = Av1 = λivi. Así, AC es la matriz cuya
Cni
columna i es λivi y
λ1c11 λ2c12 … λnc1n
λ2c21 λ2c22 … λnc2n
AC =
λ1cn1 λ2cn2 … λncnn
pero
C11 C12 … C1n λ1 0 … 0
C21 C22 … C2n 0 λ2 … 0
CD =
Cn1 Cn2 … Cnn 0 0 … λn
λ1c11 λ2c12 … λnc1n
λ2c21 λ2c22 … λnc2n
=
λ1cn1 λ2cn2 … λncnn
Entonces
AC = CD (4)
Y como C es invertible, se pueden multiplicar ambos lados de (4) por la izquierda por C-1 para obtener
D = C-1 AC (5)
Esto prueba si A tiene n vectores propios linealmente independientes, entonces A es diagonalizable. Inversamente suponga que A es diagonalizable; esto es, suponga que (5) se cumple para alguna matriz invertible C. Sean v1, v2, … vn las columnas de C. entonces AC = CD, e invirtiendo los argumentos anteriores, se ve de inmediato que Avi = λivi para i = 1, 2,…, n. Entonces v1, v2, …, vn son los vectores propios de A y son linealmente independientes porque C es invertible.
Notación: para indicar que D es la matriz diagonal con componentes diagonales λ1, λ2, …, λn, se escribirá D = diag (λ1, λ2, …, λn).
Corolario: Si la matriz A de n x n tiene n valores propios diferentes, entonces A es diagonalizable.
Observación: Si se selecciona al azar los coeficientes reales de un polinomio de grado n entonces, con probabilidad 1, el polinomio tendrá n raíces diferentes. No es difícil ver, intuitivamente, por que se cumple esto. Si n = 2, por ejemplo, entonces la ecuación λ2 + aλ + b = 0 tiene raνces reales si y solo si a2 = 4b — un evento muy improbable se a y b se eligen aleatoria mente. Por supuesto, se pueden escribir polinomios que tienen raíces de multiplicidad algebraica mayor que 1, pero son excepcionales. Por lo tanto, sin pretender precisión matemática, es posible decir que la mayoría de los polinomios tienen raíces distintas. Así, la mayoría de las matrices tienen valores propios diferentes y como se estableció al principio, la mayor parte de las matrices son diagonalizables.
4 3
EJEMPLO 1: Diagonalización de una matriz 2 x 2 sea A = 3 3 .En el ejemplo 6.1.3, se
2 1
encontraron dos vectores propios linealmente independientes v =- 3 y v2 = 1 .
2 1
Después, haciendo C = -3 1 , se encontró que
Para ver la fórmula seleccione la opción "Descargar" del menú superior
que es la matriz cuyas componentes en la diagonal son los vectores propios de A.
EJEMPLO 2: Una matriz de 2 x2 con solo un vector propio linealmente independiente
4 1
que no se puede diagonalizar Sea A = 0 4 . En el ejemplo 6.1.9, se vio que A no tiene
dos vectores propios linealmente independientes. Suponga que A fuera diagonalizable ( lo que
4 0
contradice el teorema 2 ). Entonces D = 0 4 y existiría una matriz invertible C tal que C-1
AC = D. Multiplicando esta ecuación por la izquierda por C y por la derecha por C-1, se
4 0 4 0 encuentra que A = CDC-1 = C 0 4 C-1 = C(4I)C-1 = 4CIC-1 = 4CC-1 = 4I = 0 4 = D.
pero A desigual a D y por lo tanto no existe tal C.
Toda matriz cuadrada satisface su propia ecuación característica. Es decir, si p(λ) = 0 es la ecuaciσn característica de A, entonces p(λ) = 0 .
Demostración: Se tiene
a11 – λ a12 … a1n
a21 a22 – λ … a2n
p(λ) = det ( A – λ I ) =
an1 an2 … amn – λ
Es claro cualquier cofactor de ( A – λI ) es un polinomio en λ. Asν, la adjunta de A – λI es una matriz de n x n en la que cada componente es un polinomio de λ. Es decir,
p11(λ) p12(λ) …. p1n(λ)
p21(λ) p22(λ) …. p2n(λ)
adj ( A – λI ) =
pn1(λ) pn2(λ) …. Pnn(λ)
Esto significa que se puede expresar en adj ( A – λI ) como en un polinomio, Q(λ), en λ cuyos coeficientes son matrices n x n. Para entender esto, se ve lo siguiente:
-λ2 – 2λ + 1 2 λ2 – 7 λ – 4 = -1 2 λ2 + -2 -7 λ + 1 -4
4λ2 + 5λ – 2 -3 λ2 – λ + 3 4 -3 5 -1 -2 3
1 -1 4
Ejemplo 1: Ilustración del teorema de Caley – Hamilton Sea A = 3 2 -1 . En el ejemplo 6.1.4, 2 1 -1
se calculo la ecuación característica λ3 – 2λ2 – 5λ + 6 = 0. Ahora se calcula
6 1 1 11 -3 22
A2 = 7 0 11 , A3 = 29 4 17
3 -1 8 16 3 5
y
11 -3 22 -12 -2 -2
A3 – 2A3 + 5A + 6I = 29 4 17 + -14 0 -22
16 3 5 -6 2 -16
-5 5 -20 6 0 0 0 0 0
+ -15 -10 5 + 0 6 0 = 0 0 0
-10 -5 5 0 0 6 0 0 0
En algunas situaciones el teorema de Caley – Hamilton es útil para calcular la inversa de una matriz. Si existe A-1 y p(A) = 0, entonces A-1 p(A) = 0.para ilustrar esto, si p(λ) = λn + an-1 λn-1 + … + a1λ + a0, entonces
p(A) = An + an-1 An-1 + …+ a1A + a0I = 0
y
A-1p(A) = An-1 + an-1An-2 + … + a2A + a1I + a0A-1 = 0
Asi
A-1 = 1/a0 (-An-1 -an-1An-2 – … – a2A – a1I )
Observe que a0 es diferente de 0 porque a0 = det A (¿Por qué?) y se supuso que A era invertible.
1 -1 4
Ejemplo 2: Aplicación del teorema de Caley – Hamilton para calcular A-1 Sea A = 3 2 -1
- 1 -1
Entonces p(λ) = λ3 – 2λ2 – 5λ + 6. Aquí n = 3, a2 = -2,a1 = -5, a0 = 6 y A-1 = 1/6 (-A2 + 2A + 5I)
-6 -1 -1 2 -2 8 5 0 0
= 1/6 -7 0 -11 + 6 4 -2 + 0 5 0
-3 1 -8 4 2 -2 0 0 5
1 -3 7
= 1/6 -1 9 -13
1 3 -5
Observe que se calculo A-1 haciendo solo una división y calculando solo una determinante (al encontrar p(λ) = det ( A – λI)). Este método en ocasiones es muy eficiente en una computadora.
Algebra lineal 5ta edición Stanley I. Grossman McGraw Hill
Alejandro Hernandez Manzanarez