4 APLICACIONES LINEALES. DIAGONALIZACIÓN DE MATRICES. En ocasiones, y con objeto de simplificar ciertos cálculos, es conveniente poder transformar una matriz en otra matriz lo más sencilla posible. Esto nos lleva a considerar el concepto de matrices semejantes, esto es, matriz obtenidas desde las de partidas bajo ciertas transformaciones. Las matrices más cómodas de manipular son las matrices diagonales, dado que para ellas es posible realizar gran parte de los cálculos matriciales de manera simple y rápida. El objetivo de este capı́tulo será encontrar condiciones bajo las cuales existen matrices diagonales semejantes a una matriz cuadrada y, en su caso, la determinación de dichas matrices diagonales. 4.1 APLICACIONES LINEALES + Definición 1 Sean V y W dos espacios vectoriales. Una aplicación f : V → W se dice lineal si se cumple que a) f (~u + ~v ) = f (~u) + f (~v ), ∀ ~u, ~v ∈ V. b) f (λ~u) = λf (~u), ∀ λ ∈ R y ∀~u ∈ V. Las condiciones a) y b) anteriores pueden resumirse en la siguiente propiedad: + Una aplicación f : V → W es lineal si se cumple que f (λ~u + µ~v ) = λf (~u) + µf (~v ), ∀λ, µ ∈ R, ∀~u, ~v ∈ V. (4.1.1) Resultado 4.1 • El vector f (~v ) se llama imagen del vector ~v mediante la aplicación f . • La aplicación lineal f : V → W también se denomina homomorfismo entre los espacios vectoriales V y W. 1 2 APLICACIONES LINEALES - Ejemplo 4.1 • El operador derivada puede considerarse una alicación lineal entre los espacios vectoriales P3 [x] y P2 [x], definiendo la aplicación D : P3 [x] −→ P2 [x] p(x) 7→ D(p(x)) = p0 (x) Las condiciones a) y b) se cumplen trivialmente teniendo en cuenta las propiedades del operador derivada: a) D(p(x) + q(x)) = D(p(x)) + D(q(x)), 5x2 b) D(λ p(x)) = λD(p(x)). La imagen del polinomio p(x) = 3 + 2x − + es D(p(x)) = 2 − 10x + 31x2 . • La aplicación f : R2 → R2 dada por f (x1 , x2 ) = (x1 + x2 , x1 − x2 ) es lineal dado que se cumple f ((x1 , x2 ) + (y1 , y2 )) = = = = = f (λ(x1 , x2 )) = = 7x3 f (x1 + y1 , x2 + y2 ) (x1 + y1 + x2 + y2 , x1 + y1 − (x2 + y2 )) (x1 + x2 + y1 + y2 , x1 − x2 + y1 − y2 ) (x1 + x2 , x1 − x2 ) + (y1 + y2 , y1 − y2 ) f (x1 , y1 ) + f (x2 , y2 ) f (λx1 + λx2 ) = (λx1 + λx2 , λx1 − λx2 ) λ(x1 + x2 , x1 − x2 ) = λf (x1 , x2 ). • La aplicación f : R → R2 , dada por f (x) = (x, 1) no es lineal, dado que f (x1 + x2 ) 6= f (x1 ) + f (x2 ). En efecto, f (x1 + x2 ) = (x1 + x2 , 1), mientras que f (x1 ) + f (x2 ) = (x1 , 1) + (x2 , 1) = (x1 + x2 , 2), por lo que no se cumple la condición a). 4.1.1 Expresión matricial de una aplicación lineal Sea f : V → W una aplicación lineal entre los espacios vectoriales V y W cuyas dimensiones sean dim(V) = n y dim(W) = m. Supongamos que hemos fijado una base B = {~u1 , ~u2 , . . . , ~un } de V y una base B = {~v1 , ~v2 , . . . , ~vm } de W, entonces se tiene que + la aplicación lineal f : V → W queda determinada si conocemos las imágenes de los vectores de la base B, es decir, si conocemos f (~u1 ), f (~u2 ), . . . , f (~un ), entonces podemos determinar fácilmente la imagen de cualquier vector ~x ∈ V. En efecto, si ~x ∈ V, entonces ~x se podrá expresar de forma única en la forma ~x = x1~u1 + x2~u2 + · · · + xn~un , donde como sabemos los números x1 , x2 , . . . , xn se llaman coordenadas del vector ~x respecto de la base B. Entonces, por las condiciones a) y b) se tiene que f (~x) = f (x1~u1 + x2~u2 + · · · + xn~un ) = x1 f (~u1 ) + x2 f (~u2 ) + · · · + xn f (~un ). (4.1.2) La igualdad (4.1.2) nos permitirá dar la expresión analı́tica de cualquier aplicación lineal. Para ello procedemos de la siguiente manera. Dado un vector ~x ∈ V, llamemos ~y al vector de W tal que ~y = f (~x). APLICACIONES LINEALES. DIAGONALIZACIÓN DE MATRICES. 3 Supongamos que ~x = (x1 , x2 , . . . , xn ) respecto de la base B, ~y = (y1 , y2 , . . . , ym ) respecto de la base B. ¿Qué relación existe entre las coordenadas (xi )ni=1 y las coordenadas (yj )m j=1 ? Como f (~u1 ), f (~u2 ), . . . , f (~un ) son vectores de W se podrán expresar como combinación lineal de los vectores de la base B, es decir, f (~u1 ) = a11~v1 + a21~v2 + · · · + am1~vm , f (~u2 ) = a12~v1 + a22~v2 + · · · + am2~vm , ··· ·················· f (~un ) = a1n~v1 + a2n~v2 + · · · + amn~vm , (Hemos utilizado la notación aij para designar a la coordenada j del vector f (~ui ) respecto de la base B). Ahora, teniendo en cuenta la igualdad (4.1.2), se llega a que ~y = y1~v1 + y2~v2 + · · · + ym~vm = f (~x) = x1 f (~u1 ) + x2 f (~u2 ) + · · · + xn f (~un ) = x1 (a11~v1 + a21~v2 + · · · + am1~vm ) + x2 (a12~v1 + a22~v2 + · · · + am2~vm ) + · · · + xm (a1m~v1 + a2m~v2 + · · · + amn~vm ) = (a11 x1 + a12 x2 + · · · + a1n xn )~v1 + (a21 x1 + a22 x2 + · · · + a2n xn )~v1 = + · · · + (am1 x1 + am2 x2 + · · · + amn xn )~vm . De donde se llega a las igualdades: y = a11 x1 + a12 x2 + · · · + a1n xn 1 y2 = a21 x1 + a22 x2 + · · · + a2n xn · · · · · · · · · · · · ym = am1 x1 + am2 x2 + · · · + amn xn que reciben el nombre de ecuaciones cartesianas de la aplicación lineal. Las igualdades anteriores pueden también expresarse en forma vectorial y1 a11 a12 a1n y2 a a a . = x1 .21 + x2 .22 + · · · + xn 2n .. .. .. ... , ym am1 am2 amn y en forma matricial x1 a11 a12 · · · a1n y1 y2 a21 a22 · · · a2n x2 . . . = . (4.1.3) .. .. .. .. .. . . . .. xn am1 am2 · · · amn ym La matriz a11 a12 · · · a1n a21 a22 · · · a2n , A= .. .. .. ... . . . am1 am2 · · · amn se llama matriz asociada a la aplicación lineal f . 4 APLICACIONES LINEALES La ecuación (4.1.4) se llama ecuación matricial de la aplicación lineal f y se puede escribir abreviadamente en la forma ~y = f (~x) = A~x. (4.1.4) Observación 4.1 La matriz A asociada a la aplicación lineal f : V → W es de dimensión m × n y que sus vectores columna son precisamente las coordenadas de los vectores f (~u1 ), f (~u2 ), · · · , f (~un ) respecto de la base B. - Ejemplo 4.2 • Consideremos la aplicación lineal f : P3 [x] → P2 [x] dada por f (p) = D(p) donde D es el operador derivada. Para determinar la expresión analı́tica de f necesitamos fijar una base en B en P3 [x] y una base B en P2 [x]. En nuestro caso podemos tomar B = {1, x, x2 , x3 } y B = {1, x, x2 }. Cualquier polinomio p(x) ∈ P3 [x] puede entonces escribirse en la forma p(x) = a0 + a1 x + a2 x2 + a3 x3 y cualquier polinomio q(x) ∈ P2 [x] en la forma q(x) = b0 + b1 x + b2 x2 . Tenemos definida una aplicación lineal f de tal forma que a un polinomio p(x) ∈ P3 [x] le hace corresponder un polinomio q(x) ∈ P2 [x], es decir, f a0 + a1 x + a2 x2 + a3 x3 −→ b0 + b1 x + b2 x2 . Determinar la expresión de la aplicación f es sencillamente buscar la relación que hay entre los coeficientes (bi ) y los coeficientes (ai ). Es decir, cómo determinar los coeficientes bi si conocemos los coeficientes ai . En nuestro caso es relativamente simple dado que al ser f el operador derivada D a0 + a1 x + a2 x2 + a3 x3 −→ a1 + 2a2 x + 3a3 x2 , de donde se deduce directamente que b0 = a1 , b1 = 2a2 , b2 = 3a3 , que se puede expresar matricialmente en la forma à ! à ! a0 b0 0 1 0 0 a b1 = 0 0 2 0 1 . a2 b2 0 0 0 3 a3 La matriz asociada a la aplicación lineal f es en este caso, la matriz à ! 0 1 0 0 A= 0 0 2 0 0 0 0 3 de dimensión 3 × 4. Siguiendo las indicaciones dadas en esta sección, otra forma de determinar la matriz A serı́a encontrar las imágenes de los vectores de la base B. En nuestro caso, la base B viene dada por los vectores {1, x, x2 , x3 } cuyas imágenes son: f (1) f (x) f (x2 ) f (x3 ) = = = = D(1) = 0 = 0 · 1 + 0 · x + 0 · x2 ←→ f (1) = (0, 0, 0) respecto de B D(x) = 1 = 1 · 1 + 0 · x + 0 · x2 ←→ f (x) = (1, 0, 0) respecto de B D(x2 ) = 2x = 0 · 1 + 2 · x + 0 · x2 ←→ f (x2 ) = (0, 2, 0) respecto de B D(x3 ) = 3x2 = 0 · 1 + 0 · x + 3 · x2 ←→ f (x3 ) = (0, 0, 3) respecto de B APLICACIONES LINEALES. DIAGONALIZACIÓN DE MATRICES. Por tanto, la matriz asociada a la aplicación f à 0 1 0 A= 0 0 2 0 0 0 5 será ! 0 0 3 donde como puede observarse, las columnas de la matriz A son precisamente las coordenadas de los vectores f (1), f (x), f (x2 ) y f (x3 ) respecto de la base B. La expresión (4.1.4) sirve además para caracterizar las aplicaciones lineales entre un espacio vectorial V de dimensión m y un espacio vectorial W de dimensión n. En ocasiones, esta caracterización puede resultar más fácil que comprobar si se cumplen las condiciones de linealidad a) y b) dadas en la definición 4.1. + Resultado 4.1.1 Sean V y W dos espacios vectoriales tales que dim(V) = n y dim(V) = m. Una aplicación f : V → W es lineal si, y solamente si, se puede expresar en la forma f (~x) = A ~x, (4.1.5) donde A ∈ Mm×n (R). Nota: En la expresión (4.1.5) estamos identificando el ~x con el vector columna de Rm cuyas coordenadas son las coordenadas del vector ~x respecto de la base B considerada en V. - Ejemplo 4.3 • Se considera la aplicación f : R2 → R2 definida por f (x, y) = (x cos φ − y senφ, x sen φ + y cos φ) donde φ ∈ [0, 2π]. Para probar que f es una aplicación lineal basta ver si es posible escribirla en forma matricial. En nuestro caso, utilizando notación de vector columna, µ ¶ µ ¶ µ ¶µ ¶ x x cos φ − y senφ cos φ − sen φ x f = = , y x sen φ + y cos φ sen φ cos φ y luego f es una aplicación lineal. Observemos que si consideramos en R2 la base canónica, B = {~e1 , ~e2 }, entonces f (~e1 ) = f (1, 0) = (cos φ, sen φ), f (~e2 ) = (− sen φ, cos φ), son precisamente las columnas de la matriz asociada a la aplicación. • La aplicación f : R2 → R2 dada por f (x, y) = (x + 2y, x + y + 1) no es lineal, dado que no es posible expresarla en la forma (4.1.5) µ ¶ µ ¶ µ ¶µ ¶ x x + 2y 1 2 x f = = . y x+y+1 ¿? ¿? y 6 APLICACIONES LINEALES 4.2 NÚCLEO E IMAGEN DE UNA APLICACIÓN LINEAL 4.2.1 Núcleo de una aplicación lineal + Definición 2 Sea f : V → W una aplicación lineal entre los espacios vectoriales V y W. Se define el núcleo de f y se denota por Ker(f ) al conjunto Ker(f ) = {~x ∈ V : f (~x) = ~0}. - Ejemplo 4.4 • Consideramos la aplicación lineal f : R3 → R2 definida por f (x1 , x2 , x3 ) = (x1 − x2 , x2 − x3 ), Entonces ½ 3 Ker(f ) = {(x1 , x2 , x3 ) ∈ R : f (x1 , x2 , x3 ) = (0, 0)} ⇒ Resolviendo el sistema anterior se obtiene ( à ! à ! x1 = λ x1 1 x2 = λ ⇐⇒ x2 = λ 1 , x3 = λ x3 1 x1 − x2 = 0 x2 − x3 = 0 λ ∈ R, es decir, Ker(f ) es el subespacio vectorial de R3 generado por el vector {(1, 1, 1)}. + Propiedad 4.2.1 El núcleo de una aplicación lineal, f : V → W, es un subespacio vectorial de V. Si la aplicación lineal viene dada en forma matricial como f (~x) = A ~x entonces el Ker(f ) viene determinado por las soluciones del sistema lineal homogéneo A ~x = ~0. (4.2.6) Como una consecuencia inmediata de Propiedad 4.2.1 se obtiene que el conjunto de soluciones de un sistema lineal homogéneo (de m ecuaciones y n incógnitas) forman un subespacio vectorial de Rn que se denomina NullSpace de la matriz A (donde A es la matriz de coeficientes del sistema). Si Ker(f ) = {~0} se dice que la aplicación lineal f : V → W es un monomorfirmo. - Ejercicio 4.5 • Probar que si f : V → W es un monomorfismo, entonces f es una aplicación inyectiva, es decir, se cumple que ~u 6= ~v ⇒ f (~u) 6= f (~v ). APLICACIONES LINEALES. DIAGONALIZACIÓN DE MATRICES. 4.2.2 7 Imagen de una aplicación lineal + Definición 3 Sea f : V → W una aplicación lineal entre los espacios vectoriales V y W. Se define la imagen de f y se denota por Im(f ) al conjunto Im(f ) = {~y ∈ W : ~y = f (~x) para algún ~x ∈ V}. Supongamos que hemos fijado una base B = {~u1 , ~u2 , . . . , ~un } en V. Entonces, si ~y ∈ Im(f ), la igualdad (4.1.2) nos asegura que ~y = f (~x) = f (x1~u1 + x2~u2 + · · · + xn~un ) = x1 f (~u1 ) + x2 f (~u2 ) + · · · + xn f (~un ) lo que nos dice que cualquier vector ~y ∈ Im(f ) puede ponerse como combinación lineal de los vectores f (~u1 ), f (~u2 ), . . . , f (~un ), lo que nos permite enunciar la siguiente propiedad: + Propiedad 4.2.2 Si B = {~u1 , ~u2 , . . . , ~un } es una base de V, entonces la imagen de una aplicación lineal f : V → W es el subespacio vectorial de W generado por los vectores f (~u1 ), f (~u2 ), . . . , f (~un ). - Ejemplo 4.6 • Sea f : R4 → R3 la aplicación lineal dada en forma matricial por à ! à ! x1 y1 1 −1 2 0 x y2 = 2 0 −1 1 2 . x3 y3 3 −1 1 1 x4 Si tomamos una base B = {~u1 , ~u2 , ~u3 , ~u4 } de R4 , entonces un sistema de generadores de Im(f ) vendrá por los vectores {f (~u1 , f (~u2 ), f (~u3 ), f (~u4 )}. Tomando ~u1 = (1, 0, 0, 0), ~u2 = (0, 1, 0, 0), es decir, la base canónica en f (~u1 ) = (1, 2, 3), R4 , ~u3 = (0, 0, 1, 0), ~u4 = (0, 0, 0, 1), se tiene que (ver observación 4.1) f (~u2 ) = (−1, 0, −1), f (~u3 ) = (2, −1, 1), f (~u4 ) = (0, 1, 1). Luego, Im(f ) = h(1, 2, 3), (−1, 0, −1), (2, −1, 1), (0, 1, 1)i. Para determinar una base de Im(f ) hemos de seleccionar aquellos vectores que sean linealmente independientes. Para ello podemos calcular el rango de la matriz formada por ellos, es decir, à ! 1 −1 2 0 0 −1 1 . rango 2 3 −1 1 1 (¿Té suena de algo esta matriz?) En nuestro caso, rango(A) = 2, por lo que sólo hay dos vectores linealmente independientes. Por otra parte, el menor formado por las 2 primeras filas y las 2 primeras columnas es distinto de cero ¯ ¯ ¯ 1 −1 ¯ ¯ = 2 6= 0, ¯ ¯2 0¯ por lo que una base de Im(f ) viene determinada por los vectores {(1, 2, 3), (−1, 0, −1)}. Podemos entonces decir que dim(Im(f )) = 2. 8 APLICACIONES LINEALES Si Im(f ) = W se dice que la aplicación lineal f : V → W es sobreyectiva o que es un epimorfirmo. 4.2.3 Teorema de la dimensión + Resultado 4.2.1 Sea f : V → W una aplicación lineal entre los espacios vectoriales V y W. Entonces se cumple que. dim(Ker(f )) + dim(Im(f )) = dim(V). - Ejercicio 4.7 • Se considera la aplicación f : M2×2 (R) → R2 dada por f (A) = (1, −1)A. a) Hallar f (A), f (B), f (C) donde µ ¶ µ ¶ 1 0 1 −2 A= , B= , 0 1 2 −1 b) c) d) e) 4.2.4 µ C= 1 1 1 1 ¶ . Probar que es una aplicación lineal. Encontrar la matriz asociada. Determinar el núcleo y la imagen de f . Comprobar que se cumple el Resultado 4.2.1. Isomorfismos de espacios vectoriales + Definición 4 Si Im(f ) = W se dice que la aplicación lineal f : V → W es biyectiva o que es un isoformismo si se cumple que i) f es un monomorfismo, es decir, Ker(f ) = {~0}. ii) f es un epimorfirmo, es decir, Im(f ) = W. Si f : V → W es un isomorfismo se dice que los espacios vectoriales V y W son isomorfos y se simboliza en la forma V ' W. Desde un punto de vista algebraico, el hecho de que f : V → W sea un isomorfismo significa que los espacios vectoriales V y W pueden ‘identificarse’, es decir, son esencialmente el mismo. Si dim(V) = n y B = {~u1 , ~u2 , . . . , ~un } es una base de V entonces sabemos que cualquier vector ~x ∈ V puede escribirse de forma única en la forma ~x = x1~u1 + x2~u2 + · · · + xn u~n . Los números x1 , x2 , . . . , xn son las coordenadas del vector ~x respecto de la base B. Esto nos permite definir una aplicación lineal f : V → Rn dada por f : V −→ Rn ~x 7−→ (x1 , x2 , . . . , xn ). (4.2.7) APLICACIONES LINEALES. DIAGONALIZACIÓN DE MATRICES. 9 - Ejercicio 4.8 • Probar que la aplicación lineal dada en (4.2.7) es un isomorfismo entre los espacios vectoriales V y Rn . De acuerdo con el resultado del Ejercicio 4.7 podemos enunciar el siguiente resultado: + Resultado 4.2.2 Todo espacio vectorial V tal que dim(V) = n es isomorfo a Rn . - Ejemplo 4.9 • El espacio vectorial P2 [x] de los polinomios de grado menor o igual que 2 es isomorfo a R3 . Si tomamos la base B = {1, x, x2 } de P2 [x], cualquier polinomio p(x) ∈ P2 [x] puede escribirse de forma única como p(x) = a0 + a1 x + a2 x2 , es decir, (a0 , a1 , a2 ) son las coordenadas del polinomio p(x) = a0 +a1 x+a2 x2 respecto de la base B. Por tanto, podemos establecer el isomorfismo f : P2 [x] −→ R3 2 a0 + a1 x + a2 x 7−→ (a0 , a1 , a2 ). Por tanto, podemos decir que P2 [x] ' R3 . • El espacio vectorial M2×2 (R) es isomorfo a R4 . Cualquier matriz A ∈ M2×2 (R) puede escribirse en la forma µ ¶ µ ¶ µ ¶ µ ¶ µ ¶ a11 a12 1 0 0 1 0 0 0 0 A= = a11 + a12 + a21 + a22 , a21 a22 0 1 0 0 1 0 0 1 lo que, en definitiva, viene a decirnos que ½µ ¶ µ ¶ µ ¶ µ ¶¾ 1 0 0 1 0 0 0 0 B= , , , , 0 1 0 0 1 0 0 1 es una base de M2×2 (R). Los números a11 , a12 , a13 , a14 , son precisamente las coordenadas de la matriz A respecto de la base B. Por tanto, podemos establecer el isomorfismo f : µM2×2 (R)¶ −→ R4 a11 a12 7−→ (a11 , a12 , a21 , a22 ). a21 a22 En definitiva, podemos asegurar que M2×2 (R) ' R4 . 10 4.3 APLICACIONES LINEALES CAMBIO DE BASE EN UN HOMOMORFISMO Sea f : V → W una aplicación lineal entre los espacios vectoriales V y W y supongamos que tenemos una base B = {~u1 , ~u2 , · · · , ~vn } de V y una base B = {~v1 , ~v2 , . . . , ~vm } de W. La aplicación f se podrá escribir en la forma ~y = f (~x) = A ~x, (4.3.8) donde A ∈ Mm×n (R) es la matriz asociada a f respecto de las bases B y B. Supongamos ahora que hacemos un cambio de base en V pasando de la base B a la base B 0 y que este cambio de base viene dado por la ecuación ~x = P ~x 0 . (4.3.9) De igual forma, efectuamos un cambio de base en W pasando de la base B a la base B 0 dado por la ecuación ~y = Q ~y 0 . (4.3.10) ¿Cuál será la nueva matriz asociada a f respecto de las nuevas bases B 0 y B 0 A partir de (4.3.8), (4.3.9) y (4.3.10) se obtiene, ~y 0 = Q−1 ~y = Q−1 A ~x = Q−1 A P ~x 0 . + La nueva matriz asociada a la aplicación lineal f respecto de las nuevas bases B 0 y B viene dada por A0 = Q−1 A P. (4.3.11) - Ejemplo 4.10 • Sea f : R2 → R3 la aplicación lineal dada por la ecuación à ! à ! y1 −1 2 µ ¶ x1 y2 = 0 1 . x2 y3 −1 0 Si nos indican nada supondremos que en ambos espacios hemos considerado las bases canónicas, B = {(1, 0), (0, 1)} en R2 y B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} en R3 . Supongamos que hacemos un doble cambio de base considerando las bases B0 = {(1, 2), (1, 1)} en R2 y B 0 = {(1, 1, 0), (0, 1, 1), (1, 0, 1)} en R3 . Los cambios de base vendrán dados por las ecuaciones à !à ! à ! y10 µ ¶µ ¶ µ ¶µ 0 ¶ 1 0 0 1 0 1 y 1 x1 1 0 x1 1 1 0 1 0 y2 = 1 1 0 y20 . = , 0 0 1 x2 2 1 x2 y3 0 0 1 0 1 1 y30 De donde se deduce que la ecuaciónes del cambio de base vendrán dadas por µ ¶ µ µ 0¶ ¶µ 0 ¶ x1 x1 x1 1 1 , = =P 0 x2 2 −1 x02 x2 0 à ! à ! y10 y1 y1 1 0 1 0 0 y2 = 1 1 0 y2 = Q y2 . y3 0 1 1 y30 y30 APLICACIONES LINEALES. DIAGONALIZACIÓN DE MATRICES. 11 Por tanto, la matriz asociada a la aplicación f respecto de las nuevas bases B0 en R2 y B 0 en R3 , será à ! à ! ¶ 1 0 1 −1 −1 2 µ 1 1 0 −1 0 1 A = Q AP = 1 1 0 2 1 0 1 1 −1 0 1 1 1 à ! 3 ¶ 2 2 −2 3 −1 2 µ 2 1 1 1 1 0 1 = −1 − 21 . = − 21 2 2 2 1 −1 0 0 − 21 1 1 1 − 2 2 2 La nueva expresión de la aplicación f será 0 3 3 y1 µ 0¶ 2 0 x1 1 . y2 = −1 − 2 x02 0 y3 0 − 12 4.4 ENDORMORFISMOS DE ESPACIOS VECTORIALES + Definición 5 Una aplicación lineal f : V → V del espacio vectorial V en si mismo recibe el nombre de endomorfismo. Dado que el espacio origen y el espacio destino son el mismo, lo usual es considerar la misma base en ambos espacios. Si suponemos que dim(V) = n y fijamos una base B = {~u1 , ~u2 , . . . , ~un } en V, la aplicación lineal podrá expresarse en la forma ~y = f (~x) = A ~x, donde A ∈ Mn×n (R) es la matriz asociada a f respecto de la base B. 4.4.1 Cambio de base en un endomorfismo Sea B 0 una nueva base en V y supongamos que la ecuación del cambio de base de B a B 0 venga dada por la matriz P , es decir, ~x = P ~x 0 , ~y = P ~y 0 . De acuerdo con (4.3.11), la nueva matriz asociada a la aplicación f será A0 = P −1 A P. - Ejemplo 4.11 • Sea f : R3 → R3 la aplicación lineal definida por à ! à !à ! 2 −1 −1 y1 x1 y2 = 0 3 1 x2 . y3 x3 0 1 3 Suponemos que la base considerada en R3 es la base canónica. ¿Cuál será la matriz asociada respecto de la base B 0 = {(−1, 1, 1), (−1, 1, −1), (1, 1, 1)}? 12 APLICACIONES LINEALES Puesto que la base de partida es la base canónica, la ecuación del cambio de base vendrá dado por à ! à ! x01 ! y10 à ! à x1 −1 −1 1 y1 −1 −1 1 x2 = −1 1 1 x02 , y2 = −1 1 1 y20 . x3 1 −1 1 y3 1 −1 1 x0 y0 3 3 Por tanto, la matriz asociada a f en la nueva base será ! ! à !à ! à à 2 0 0 −1 −1 1 −1 −1 1 −1 2 −1 −1 0 −1 −1 1 1 = 0 2 0 . 0 3 1 1 1 A = P A P = −1 0 0 4 1 −1 1 0 1 3 1 −1 1 La nueva expresión de la aplicación f será 0 à ! x01 y1 2 0 0 0 0 x02 . y2 = 0 4 0 0 −2 y0 x0 3 3 En el ejemplo anterior hemos realizado un cambio de base en un endomorfismo f y hemos conseguido que la matriz asociada a f en la nueva base sea una matriz diagonal. ¿Podrá siempre conseguirse que mediante un cambio de base la matriz asociada sea diagonal? En caso de que sea posible, ¿hay alguna forma de determinar cuál debe ser la base? La siguiente sección está dedicada a dar respuesta a ambas preguntas. 4.5 DIAGONALIZACIÓN DE MATRICES + Definición 6 Una matriz A ∈ Rn se dice diagonalizable si existe una matriz P tal que P −1 AP = D (diagonal). Supongamos que tenemos un endomorfismo f : Rn → Rn cuya matriz asociada respecto de la base canónica es A y que hemos podido elegir una base B 0 = {~u1 , ~u2 , . . . , ~un } en Rn de forma que la matriz asociada a f sea diagonal, es decir, λ1 0 · · · 0 0 λ2 · · · 0 P −1 AP = D = .. . . . . ... . .. . 0 0 · · · λn De la expresión anterior se deduce que AP = DP. Ahora bien, las columnas de la matriz P son precisamente las coordenadas de los vectores ~u1 , ~u2 , . . . , ~un , por lo que A(~u1 |~u2 | · · · |~un ) = D(~u1 |~u2 | · · · |~un ) La columna j-ésima de la matriz AP se obtiene precisamente multiplicando la matriz A por la columna j-ésima de la matriz P . De igual forma, la multiplicación a izquierda por la matriz D (diagonal) equivale a multiplicar cada columna de la APLICACIONES LINEALES. DIAGONALIZACIÓN DE MATRICES. 13 matriz P por el elemento correspondiente de la diagonal de la matriz D. Por lo tanto, (A~u1 |A~u2 | . . . |A~un ) = (λ1~u1 |λ2~u2 | · · · |λn~un ), de donde se deduce que A~u1 = λ1~u1 , A~u2 = λ2~u2 , · · · , A~un = λ~un . Esto nos permite establecer el siguiente resultado: + Resultado 4.5.1 Una matriz A ∈ Mn×n (R) es diagonalizable si podemos encontrar una base B 0 = {~u1 , ~u2 , . . . , ~un } de vectores de Rn tales que A ~ui = λi~ui , λi ∈ R, i = 1, 2, . . . , n. (4.5.12) Los números reales λi serán precisamente los elementos que figuren en la diagonal de la matriz D (la matriz diagonal que estamos buscando). 4.5.1 Valores propios y vectores propios de una matriz El Resultado 4.5.1 nos indica el camino que tenemos que seguir para determinar la base B. Se trata de encontrar vectores ~u ∈ Rn tales que A~u = λ ~u, λ ∈ R. (4.5.13) + Definición 7 Los vectores ~u ∈ Rn que cumplen la condición (4.5.13) se denominan vectores propios de la matriz A asociados al valor λ (que recibe el nombre de valor propio de la matriz A). De la igualdad (4.5.13) se obtiene A~u = λ~u ⇒ A~u − λ~u = ~0 ⇒ (A − λI)~u = ~0, donde I denota la matriz identidad de orden n. Esto nos asegura que el vector ~u es solución del sistema homogéneo (A − λI)~x = ~0. (4.5.14) Por tanto, la existencia de vectores ~u conlleva que el sistema anterior tiene solución distinta de la trivial y, en consecuencia, deberá cumplirse que det(A − λI) = 0. (4.5.15) La ecuación (4.5.15) se denomina ecuación caracterı́stica de la matriz A y sus soluciones son precisamente los valores propios de la matriz. 4.5.1.1 Polinomio caracterı́stico de una matriz. El determinante de la matriz A−λI es un polinomio de grado n en la variable λ que recibe el nombre de polinomio caracterı́stico de la matriz A, que notamos por pA (λ), pA (λ) = det(A − λI). 14 APLICACIONES LINEALES 4.5.1.2 Multiplicidad algebraica de un valor propio. Los valores propios de la matriz A son las raı́ces del polinomio caracterı́stico. Si conocemos dichas raı́ces el polinomio se descompone en la forma pA (λ) = (−1)n (λ − λ1 )nλ1 (λ − λ2 )nλ2 · · · (λ − λk )nλk , con nλ1 + nλ2 + · · · + nλk = n, donde los números nλi se denominan la multiplicidad algebraica del valor propio λi e indican el número de veces que el valor λi aparece como solución de la ecuación caracterı́stica. - Ejemplo 4.12 à • Para determinar los valores propios de la matriz A = 2 −1 −1 0 3 1 0 1 3 ! calculamos el polinomio caracterı́stico ¯ ¯ ¯ 2 − λ −1 −1 ¯ ¯ ¯ 3−λ 1 ¯ = 0 ⇒ −λ3 + 8λ2 − 20λ + 16. pA (λ) = det(A − λI) = ¯ 0 ¯ 0 1 3−λ ¯ Los valores propios son las raı́ces de este polinomio, es decir, las soluciones de la ecuación caracterı́stica ½ λ1 = 2 (doble) 3 2 pA (λ) = 0 ⇒ −λ + 8λ − 20λ + 16 ⇒ λ2 = 4 (simple). El polinomio caracterı́stico se descompone en la forma pA (λ) = −λ3 + 8λ2 − 20λ + 16 = (−1)3 (λ − 2)2 (λ − 4). En este caso, la multiplicidad algebraica del valor propio λ1 = 2 es nλ1 = 2 y la de valor propio λ2 = 4 es nλ2 = 1. 4.5.2 Subespacio propio asociado a un valor propio. Multiplicidad geométrica Para determinar los valores propios asociados al valor propio λ hemos de resolver el sistema dado por (A − λI)~x = ~0. (4.5.16) Como sabemos, las soluciones de un sistema homogéneo determinan un subespacio vectorial, por lo que los vectores ~x ∈ Rn que satisfacen el sistema (4.5.16) determinarán un subespacio vectorial de Rn . Este subespacio vectorial se denomina subespacio propio asociado al valor propio λ y lo denotaremos por Vλ , es decir, Vλ = {~x ∈ Rn : (A − λI)~x = ~0.} La dimensión de este subespacio se denomina multiplicidad geométrica del valor propio λ, mλ = (multiplicidad geométrica de λ) = dim(Vλ ). APLICACIONES LINEALES. DIAGONALIZACIÓN DE MATRICES. - Ejemplo 4.13 15 à ! 2 −1 −1 3 1 (ver Ejemplo anterior) son • Los valores propios de la matriz A = 0 0 1 3 λ1 = 2 (doble) y λ2 = 4 (simple). Para determinar el subespacio propio asociado al valor propio λ1 = 2 hemos de resolver el sistema (A − λ1 I)~x = ~0. En nuestro caso !à ! à ! 0 0 −1 −1 x1 ~ ~ 0 1 1 x = 0 (A − λ1 I)~x = 0 ⇒ (A − 2I)~x = 0 ⇒ 2 0 0 1 1 x3 à ! à ! à ! ( ( x1 1 0 −x2 − x3 = 0 x1 = α x2 + x3 = 0 ⇒ x2 = −β ⇒ x2 = α 0 + β −1 ⇒ 0 1 x3 x3 = β x2 + x3 = 0 lo que nos dice que Vλ1 es el subespacio vectorial generado por los vectores ~u1 = (1, 0, 0) y ~u2 = (0, −1, 1). Por tanto, la multiplicidad geométrica del autovalor λ1 = 2 será mλ1 = dim(Vλ1 ) = 2. Además, el subespacio Vλ1 nos proporciona dos vectores propios ~u1 y ~u2 , linealmente independientes. De igual forma para determinar el subespacio propio asociado al valor propio λ2 = 4 hemos de resolver el sistema à !à ! à ! −2 −1 −1 x1 0 0 −1 1 x2 = 0 (A − λ2 I)~x = ~0 ⇒ (A − 4I)~x = ~0 ⇒ 0 1 −1 x3 0 ( ( à ! à ! −2x1 − x2 − x3 = 0 x1 = −α x1 −1 −x2 + x3 = 0 ⇒ x2 = α 1 , ⇒ ⇒ x2 = α x2 − x3 = 0 x3 = α x3 1 à lo que nos dice que Vλ2 está generado por el vector ~u3 = (−1, 1, 1) y, por tanto, la multiplicidad geométrica del valor propio λ2 = 4 será mλ2 = dim(Vλ2 ) = 1. Además, el subespacio Vλ2 nos proporciona un tercer vector propio linealmente independiente ~u3 = (−1, 1, 1). Por tanto, la matriz P que nos permite diagonalizar la matriz A vendrá dada por à ! 1 0 −1 1 , P = (~u1 |~u2 |~u3 ) = 0 −1 0 1 1 y puede comprobarse fácilmente que à ! à !à ! 1 0 −1 −1 2 −1 −1 1 0 −1 −1 0 −1 1 0 3 1 0 −1 1 P AP = 0 1 1 0 1 3 0 1 1 1 1 à !à ! à ! 1 2 2 2 −1 −1 1 0 −1 2 0 0 1 1 0 3 1 0 −1 1 = 0 2 0 . = 0 −2 2 0 1 3 0 1 1 0 0 4 1 1 0 2 2 16 APLICACIONES LINEALES El siguiente resultado nos permite determinar cuándo una matriz es diagonalizable. + Resultado 4.5.2 Una matriz A ∈ Mn×n (R) es diagonalizable si y solo si se cumple que i) Todos los valores propios de A son reales. ii) Para todo valor propio λ de A se cumple que mλ = nλ . - Ejemplo 4.14 ! 2 −1 −1 3 1 estudiada en los Ejemplos 4.12 y 4.13 tiene los valores • La matriz A = 0 0 1 3 propios λ = 1 = 2 (doble) y λ2 = 4 (simple) y se cumple que mλ1 = nλ1 = 2, mλ2 = nλ2 = 1. Por tanto, la matriz A es diagonalizable. à + Resultado 4.5.3 Si λ es un valor propio real de una matriz A ∈ Mn×n (R) entonces se cumple que 1 ≤ mλ ≤ nλ . (4.5.17) Como consecuencia inmediata del Resultado 4.5.4 se obtiene el siguiente resultado: + Resultado 4.5.4 Si todos los valores propios de una matriz A ∈ Mn×n (R) son reales y simples, entonces la matriz A es diagonalizable. - Ejemplo 4.15 • Se considera la matriz à ! −2 0 0 0 3 0 . A= 4 0 m Estudiar para qué valores de m la matriz M es diagonalizable. Solución: En primer lugar calculamos su polinomio caracterı́stico ¯ ¯ ¯−2 − λ 0 0 ¯ ¯ ¯ 3−λ 0 ¯ = (−2 − λ)(3 − λ)(m − λ). ¯ 0 ¯ 4 0 m − λ¯ Ası́, los valores propios de M (raı́ces del polinomio anterior) son λ1 = −2, λ2 = 3 y λ3 = m. A continuación distinguimos los siguientes casos. a) Si m 6= −2, 3, entonces A tiene tres valores propios distintos y, en consecuencia, es diagonalizable. b) Si m = −2, entonces λ1 = −2 tiene multiplicidad algebraica 2. Para calcular su multiplicidad geométrica calculamos el subespacio propio asociado resolviendo el sistema à !à ! à ! ( à ! à ! 0 0 0 x1 0 x1 = α x1 1 x2 = 0 ⇒ x2 = 0 ⇒ x2 = α 0 , (A−λ2 I)~x = ~0 ⇒ 0 5 0 4 0 0 x3 0 x3 = 0 x3 0 APLICACIONES LINEALES. DIAGONALIZACIÓN DE MATRICES. 17 Por tanto Vλ1 está generado por el vector ~u1 = (1, 0, 0), por lo que mλ1 = dim(Vλ1 ) = 1. Al ser mλ1 6= nλ1 concluimos que la matriz A no es diagonalizable. c) En el caso m = 3 el valor propio λ1 = −2 tiene multiplicidad algebraica 1 por lo que, aplicando (4.5.17) se tiene que mλ1 = nλ1 = 1. Para el valor propio λ2 = 3 su multiplicidad geométrica es 2. Para calcular su multiplicidad geométrica recurrimos de nuevo a determinar el subespacio propio asociado resolviendo el sistema: à !à ! à ! 0 −5 0 0 x1 0 0 0 x2 = 0 (A − λ2 I)~x = ~0 ⇒ 0 4 0 0 x3 à ! à ! à ! ( 0 0 x1 = 0 x1 ⇒ x2 = α ⇒ x2 = α 1 + β 0 x3 0 1 x3 = β Luego, Vλ2 es el subespacio vectorial generado por los vectores (0, 1, 0) y (0, 0, 1) y, en consecuencia, mλ2 = dim(Vλ2 ) = 2. Concluimos que la matriz A es, en este caso, diagonalizable. En resumen A es diagonalizable cuando m 6= −2. 4.5.2.1 Matrices simétricas. Como sabemos, una matriz simétrica es aquella que cumple que A = A> . El interés de las matrices simétricas es el siguiente resultado. + Resultado 4.5.5 a) Todos los valores propios de una matriz simétrica son reales. b) Toda matriz simétrica es diagonalizable. 4.6 APLICACIÓN. CÁLCULO DE LA POTENCIA DE UNA MATRIZ En determinadas ocasiones se requiere el cálculo de la potencia Ak donde A es una matriz cuadrada y k ∈ N. Salvo casos excepcionales, esta operación puede ser muy engorrosa. Una de las principales aplicaciones de la diagonalización de matrices es precisamente el cálculo de la potencia de una matriz. Se base en el hecho de que para una matriz diagonal siempre se cumple que k λ1 0 · · · 0 λ1 0 · · · 0 k 0 λk2 · · · 0 0 λ2 · · · 0 . = Dk = .. . . . .. . . . . .. ... . .. . .. . . 0 0 · · · λn 0 0 · · · λkn Supongamos que A ∈ Mn×n (R) es una matriz diagonalizable, entonces existe una matriz P tal que P −1 AP = D (diagonal), de donde se deduce que A = P DP −1 . 18 APLICACIONES LINEALES Aplicando la propiedad asociativa de producto de matrices, se tiene A2 = A · A = (P · D · P −1 ) · (P · D · P −1 ) = P · D2 · P −1 , A3 = A2 · A = (P · D2 · P −1 ) · (P · D · P −1 ) = P · D3 · P −1 y, en general, Ak = P · Dk · P −1 . El cálculo de Ak se ha reducido considerablemente. - Ejemplo 4.16 • Supongamos que queremos calcular Ak , 2 0 A= 0 0 con k ∈ N, siendo 1 −1 0 4 −2 0 . 3 −1 0 4 −4 2 En primer lugar probamos que la matriz A es diagonalizable. En nuestro caso, la matriz P viene dada por 1 1 0 0 2 0 1 0 , P = 3 0 1 0 4 0 0 1 siendo 1 0 0 0 0 2 0 0 . P −1 AP = D = 0 0 2 0 0 0 0 2 Entonces, 1 0 0 0 k 1 1 0 0 −1 1 1 0 0 2 0 1 0 0 2 0 0 2 0 1 0 Ak = 3 0 1 0 0 0 2 0 3 0 1 0 0 0 0 2 4 0 0 1 4 0 0 1 1 0 0 0 1 1 0 0 1 1 0 0 −1 k 0 0 2 0 1 0 0 2 2 0 1 0 = 3 0 1 0 0 0 2k 0 3 0 1 0 4 0 0 1 4 0 0 1 0 0 0 2k 1 0 0 0 1 1 0 0 0 −1 1 0 k 0 0 1 −1 0 2 0 1 0 0 2 1 = 3 0 1 0 0 0 2k 0 0 3 −2 0 4 0 0 1 0 4 −4 1 0 0 0 2k k 2 2k − 1 1 − 2k 0 0 3×2k − 2 2 − 2k+1 0 = 0 3×2k − 3 3 − 2k+1 0 . 0 2k+2 − 4 4 − 2k+2 2k APLICACIONES LINEALES. DIAGONALIZACIÓN DE MATRICES. 4.7 19 EJERCICIOS PROPUESTOS EN EXÁMENES ANTERIORES 1.- Dado el endomorfismo f : R3 → R3 definido por f (x1 , x2 , x3 ) = (mx1 + x2 − x3 , x1 + 2x2 + x3 , x1 + 3x2 − x3 ). a) Calcular la matriz asociada a f respecto de la base canónica. b) Determinar Ker(f ) e Im(f ), discutiendo el problema según los valores de m. por bloques, calcular An , siendo A la matriz .. 0 0 . 0 0 0 .. 1 0 . 0 0 0 .. 0 1 . 0 0 0 ··· ··· ··· ··· ··· ··· .. 0 0 . 1/2 0 1/2 .. 0 0 . 0 1 0 .. 0 0 0 . 0 0 1 µ ¶ cos θ sen θ 3.- Dada la matriz T = , donde θ ∈ [0, 2π], probar que T es − sen θ cos θ ortogonal y calcular T n , con n ∈ N. 4.- Determinar si el endomorfismo de f : P3 [x] → P3 [x] definido por 2.- Usando el producto matricial 1 0 0 A = · · · 0 0 f (a + b x + c x2 + d x3 ) = d + c x + b x2 + a x3 , es diagonalizable. En caso afirmativo, determinar la base respecto de la cual la matriz asociada a f es diagonal. à ! 1 1 0 0 2 0 . 5.- Halla la potencia An de la matriz A = −2 1 3