1. Matrices no negativas Cuando A posee al menos un coeficiente nulo y el resto no negativos, puede ocurrir que algunas de las propiedades probadas no se sigan cumpliendo. Ejemplo 1.1 Si A= 0 1 0 0 , el radio espectral es nulo, ρ(A) = 0, y la multiplicidad algebraica y geométrica son distintas. Ejemplo 1.2 Si A = In , n > 1, ρ(A) = 1 cualquier vector de coordenadas positivas es autovector y la multiplicidad geométrica es mayor que 1. Ejemplo 1.3 Si A= 0 1 1 0 , se cumplen todas las propiedades salvo la sexta, ya que 1 y −1 tienen el mismo módulo. Veamos primero que propiedades subsisten: Proposición 1.4 Si A ≥ 0, ρ(A) es autovalor (aunque puede ser 0) y posee al menos un autovector de coordenadas no negativas. También sigue valiendo: Teorema de Collatz-Wielandt: r = máxx∈N f (x), donde: (Ax)i }, y 1≤i≤n xi f (x) = { mı́n N = {x ∈ Rn : xi ≥ 0∀i, x 6= 0}. Dem 1.5 Consideremos la sucesión de matrices positivas Bk = A + k1 E, donde E es la matriz con todos sus coeficientes iguales a 1. Como Bk > Bk+1 , por el corolario del Teorema C-W, tenemos que rk = ρ(Bk ) > ρ(Bk+1 ), es una sucesión decreciente acotada inferiormente por 0, luego converge a un número r∗ ≥ 0. Por otra parte cada Bk posee un vector de Perron xk , como sus coordenadas están acotadas, se puede conseguir una subsucesión xnk que converge a un vector x ≥ 0, x 6= 0. Como Ax = lı́m Bnk xnk = lı́m rnk xnk = r∗ x, k→∞ k→∞ 1 se tiene que x es autovector no negativo con autovalor r∗ . Además si usamos que: 1 1 k k k ρ(A) ≤ ||Ak ||∞ ≤ ||Bm ||∞ al tomar lı́mite para k → ∞ queda ρ(A) ≤ rm , y tomando lı́mite para m → ∞, vemos que r∗ ≥ ρ(A), y como r∗ es un autovalor debe ser r∗ = ρ(A). Para probar C-W, observamos que sigue valiendo 0 ≤ f (x)x ≤ Ax ≤ Ak x. Si multiplicamos a izquierda por el vector de Perron a izquierda qk de Ak , obtenemos: f (x)qkT x ≤ qkT Ax ≤ qkT Ak x = rk qkT x =⇒ f (x) ≤ rk ∀ k =⇒ f (x) ≤ r, como f (z) = r y z ∈ N , se sigue que máxx∈N f (x) = r. Sobre las restantes propiedades de las matrices positivas, Frobenious observó que algunas se mantenı́an dependiendo de la posición en que se ubican los ceros de A. Esto lo llevó a definir lo siguiente: Definición 1.6 Una matriz A se dice reducible si existe una matriz de permutación P tal que X Y T P AP = . 0 Z En caso de no existir una tal P , A se dice irreducible. Una forma gráfica de observar la irreducibilidad es asociando a una matriz n × n A = (aij ) ≥ 0 un grafo dirigido G(A) con n vértices. Donde el vértice i se conecta con el j por una arista dirigida de i a j, si aij > 0. La matriz A será irreducible si y sólo si todo par de vértices de G(A) puede conectarse entre si mediante un camino. Vemos que una matriz reducible permite separar a {1, 2, . . . , n − 1, n} = I ∪ J, en dos conjuntos disjuntos I, J, tales que aij = 0, ∀i ∈ I, j ∈ J. (k) En tal caso, el coeficiente aij de Ak será nulo para todo k > 0, ya que P (k) aij = i1 ,i2 ,...ik−1 aii1 ai1 i2 . . . aik −1j y todos los sumandos serán nulos, porque siempre aparece al menos un factor nulo en cada sumando. Recı́procamente, si A ≥ 0 es irreducible, el coeficiente i, j de alguna potencia Ak será positivo. El siguiente Lema conecta las matrices irreducibles y no negativas con las positivas. Lema 1.7 Si A ≥ 0 es irreducible entonces (I + A)n−1 > 0. 2 Dem 1.8 n−1 [(I + A) n−1 n−1 X X n−1 k n − 1 (k) ]ij = [ A ]ij = aij > 0. k k k=0 k=0 Con este resultado podemos extender casi todas las propiedades del Teorema de Perron a matrices no negativas. Teorema de Perron-Frobenious Sea A una matriz n × nA ≥ 0 irreducible, con r = ρ(A), entonces son verdaderas las siguientes afirmaciones: 1) r > 0, 2) r ∈ σ(A), r se llama raı́z de Perron, 3) multalg (ρ(A)) = 1, 4) Existe un vector x > 0 tal que Ax = rx, 5) El vector de Perron, es el único vector z que cumple: X Az = rz, z > 0, zi = 1, i y salvo por múltiplos de z, no hay otros autovectores de A con coordenadas positivas y cualquier autovalor. 6) Teorema de Collatz-Wielandt: r = máxx∈N f (x), donde: (Ax)i , y N = {x ∈ Rn : xi ≥ 0∀i, x 6= 0}. 1≤i≤n xi f (x) = mı́n Dem 1.9 2) y 6) ya fueron probados. Para el resto de las afirmaciones usaremos lo siguiente: si λ es autovalor de A entonces (1 + λ)n−1 es autovalor de (I + A)n−1 , ya que si triangularizamos A mediante una matriz unitaria U : T = U T AU , la misma U nos permite triangularizar (I + A)n−1 y los valores que obtenemos en la diagonal son los (1 + tii )n−1 . Más aún, se sigue que la multiplicidad algebraica de λ en A es menor o igual que la multiplicidad algebraica de (1 + λ)n−1 en (I + A)n−1 . Entonces si µ = ρ((I + A)n−1 ), tenemos: µ = máx {|(1 + λ)n−1 |} = ( máx {|(1 + λ)|})n−1 = (1 + r)n−1 λ∈σ(A) λ∈σ(A) 3 Ahora bien, si Ax = rx con x ≥ 0, (I + A)n−1 x = (1 + r)n−1 x lo cual implica al ser x autovector correspondiente a ρ((I +A)n−1 ), que x > 0 y multalg r = 1. Por lo tanto Ax > 0, por lo cual r > 0. Esto prueba 1), 3), 4) y 5). Frobenious estudió también en que casos vale que hay un sólo autovalor de módulo ρ(A). Definición 1.10 Si λ ∈ σ(A), |λ| = ρ(A) =⇒ λ = ρ(A) decimos que A es primitiva, en caso contrario se dice que A es imprimitiva y el número de autovalores con módulo ρ(A) se llama ı́ndice de imprimitividad. Ejemplo 1.11 La matriz n × n de permutación cı́clica (aij ) con aii+1 = 1 = an1 , 1 ≤ i ≤ n − 1. es un ejemplo donde los autovalores son todas las raı́ces n−ésimas de la unidad. Por lo tanto, es un ejemplo de matriz imprimitiva de ı́ndice n. Si A es primitiva con ρ(A) = r, A/r tendrá todos sus autovalores de módulo menor que 1 salvo el de Perron. Por lo tanto para todo vector x se tiene: lı́mk→∞ ( Ar )k x = α(x)p donde α(x) puede calcularse multiplicando por el vector de Perron a izquierda q: A qT x A α(x)q T p = q T lı́m ( )k x = lı́m q T ( )k x = lı́m q T x =⇒ α(x) = T . k→∞ k→∞ k→∞ r r q p Por lo tanto: pq T A lı́m ( )k = T > 0. k→∞ r q p Un test muy útil para ver si A es primitiva es el siguiente: Proposición 1.12 A ≥ 0, es primitiva si y sólo si existe k > 0 tal que Ak > 0. Dem 1.13 Si r = ρ(A) entonces rk = ρ(Ak ) y si λ es autovalor con |λ| = r entonces λk es autovalor de Ak con multalg (λ)A =≤ multalg (λk )Ak y |λk | = rk =⇒ λk = rk por ser Ak > 0. Como la multiplicidad algebraica de rk en Ak es uno, se tiene que sólo puede provenir de λ = r. Recı́procamente si A es primitiva como lı́mk→∞ ( Ar )k = qT1 p pq T > 0 se tiene que alguna potencia de A será positiva. 4 Ejemplo 1.14 Cualquier matriz de permutación es reducible o imprimitiva ya que toda potencia de P es de permutación y no puede ser positiva. Ejemplo 1.15 Para ver si 0 2 0 A= 0 0 3 4 5 0 es primitiva no hace falta calcular potencias de A, sino de cualquier matriz que tenga los mismos coeficientes nulos y el resto positivos pero arbitrarios. Es decir podemos reducir a calcular cuadrados de matrices con ceros y unos. En nuestro caso calculamos 2 2 0 1 0 0 0 1 0 0 1 0 1 1 0 0 1 = 1 1 0 1 1 0 = 1 1 1 1 1 0 0 1 1 0 1 1 1 1 1 y la siguiente potencia da positiva, por lo tanto A es primitiva. Una cota para la potencia que hay que calcular es (n − 1)2 + 1. En el ejemplo anterior n = 3 y (3 − 1)2 + 1 = 5, como A4 no es positiva, se ve que la cota es efectiva. 5