Álgebra Multilineal sobre R Lección dos álgebra multilineal de espacios euclideanos por J.M. M.árquez-Bobadilla CUCEI Universidad de Guadalajara álgebra multilineal en espacios de Euclides (espacios con métrica o producto escalar) -métrica -matriz de Gram -Lema de representación de Riesz -subir y bajar los ı́ndices -énfasis cambios de bases y cambios de componentes -métrica inducida en el álgebra de Grassmann -clasificación de formas cuadráticas Espacios vectoriales con producto interior. Sea V un espacio vectorial sobre los reales R generado por los objetos {b1 , b2 , ..., bn }. Suponga que existe un producto interior en V i.e. hay un mapa h , i:V ×V →R el cual es bilineal, simétrico y positivo definido no degenerado: repectivamente 1. haX + cY, Zi = ahX, Zi + chY, Zi 2. hX, aY + cZi = ahX, Y i + chX, Zi 3. hX, Y i = hY, Zi 4. hX, Xi ≥ 0 5. hX, Xi = 0 si y sólo si X = 0 donde a, c son escalares reales y X, Y, Z vectores arbitarios en V . El tensor métrico es la matriz g11 g21 G= . .. g12 g22 gn1 ··· ··· .. . g1n g2n .. . gnn 1 donde gij = hbi , bj i. La matriz inversa G−1 se llama cotensor métrico y sus entradas se indexan G = [g ij ], por lo que al multiplicar G y G−1 se obtienen las relaciones −1 δi j = gis g sj = gi1 g 1j + gi2 g 2j + · · · gin g nj Lema de Representación de Riesz Sea f : V → R un covector en V con producto interior h , i. Entonces existe un único vector a ∈ V el cual determina a f , esto es: f ( ) = ha, i Para los covectores básicos β i resulta que el vector bi = g is bs (suma sobre s) satisface β i ( ) = hbi , i pues si β i se aplica a el básico bt tenemos β i (bt ) = hbi , bt i = hg is bs , bt i = g is hbs , bt i = g is gst = δi t por lo que aplicado a un vector X = X µ bµ arbitario tenemos β i (X) = hbi , X µ bµ i = X µ hbi , bµ i = X µ δi µ = Xi Los vectores b1 , b2 , ..., bn son linealmente independientes, forman también una base para V y se llaman básicos reciprocos. Siendo T (2,0) V el conjunto de los mapeos bilineales V ×V → R y si B ∈ T (2,0) V entonces B = Bµν β µ ⊗ β ν . En el conjunto T (0,2) V está el mapeo bilineal B̄ = B µν bµ ⊗ bν . ¯ = B ν βµ ⊗ b . Y en T (1,1) V está B̄ µ ν Ahora si construimos los básicos reciprocos duales βi = gis β s 2 vamos a poder calcular que ¯ (b , β ) = B B(bs , bt ) = B̄(βs , βt ) = B̄ s t st donde los componentes se relacionan mediante el cotensor métrico ası́: B i j = Bsj g si con suma sobre s, y B ij = B i s g sj = Bst g si g tj con suma sobre t y s, t respectivamente. O bien Bi j = B sj gsi y Bij = Bi s gsj . Todas estas relaciones entre los componentes con respecto al tensor y cotensor métricos reciben el nombre de leyes de subir y bajar ı́ndices. Las formas tiene un producto interior también Es posible inducir un producto interior en los espacios Λk V . Si A = Ai1 ...ik β i1 ∧ . . . ∧ β ik y C = Cj1 ...jk β j1 ∧ . . . ∧ β jk entonces hA, Ci = g i1 j1 · · · g ik jk Ai1 ...ik Cj1 ...jk Por ejemplo para 1-formas tenemos g i 1 j 1 Ai 1 C j 1 hA, Ci = = Ai 1 C i 1 que satisface los 5 axiomas de producto interior. Pullback Teniendo una transformación lineal L: V → W podemos construir por cada forma en W otra forma en V . Pues si φ ∈ W ∗ = Λ1 V es decir φ: W → R es covector en W entonces podemos construir otra transformación lineal φ◦L: V → R, es decir φ ◦ L ∈ V ∗ = Λ1 V . Ası́ hemos definido una transformación lineal L∗ : W ∗ → V ∗ vı́a φ 7→ L∗ φ = φ ◦ L la regla de asignación L∗ es el pullback de L. Supongamos que V = h{b1 , ..., bn }i y W = h{c1 , ..., cm }i, ası́ tendremos que Lbk = Ls k cs , 3 (A) es la forma en que las bases se relacionan. ¿Cómo se relacionan las base de covectores? Sean V ∗ = h{β 1 , ..., β n }i y W = h{γ 1 , ..., γ m }i. Sean gij = hbi , bj i y hkl = hck , cl i los componentes de los tensores métricos de V y W respectivamente. Por lo que L∗ γ i (bk ) = γ i ◦ L(bk ) = γ i (Lbk ) = γ i (Ls k cs ) = Ls k γ i (cs ) = Ls k γ i (cs ) = Ls k δ i s = Li k Pero también Li t β t (bk ) = Li t δ t k = Li k Es decir L∗ γ i (bk ) = Li t β t (bk ) para todo básico bk , por lo que las transformaciones son iguales, i.e. L∗ γ i = Li t β t , (B) lo que nos indica como se relacionan las bases duales de W, V respectivamente (cf. (A) arriba). Finalmente, si ϕ ∈ W ∗ este se expresa como ϕ = ϕµ γ µ y entonces L∗ ϕ = ϕµ L∗ γ µ = ϕµ Lµ t β t lo cual muestra que los componentes de L∗ ϕ son ϕµ Lµ t Ejercicios 4 L M 1. Demuestre que si V → W → U es una composición de transformaciones lineales, entonces el correspondiente diagrama de pullbacks es M∗ L∗ U∗ → W∗ → V ∗ 2. Escriba todo el ejercicio 1 en términos de componentes. 3. Si el covector ϕ ∈ W ∗ tiene una representación ϕ( ) = hξ, i y covector L∗ ϕ ∈ V ∗ tiene L∗ ϕ( ) = hζ, i, con ξ ∈ W y ζ ∈ V , ¿Cuál es la relación entre los componentes de L, ξ y ζ? 5 •§§ Cómo cambian los componentes de un tensor si cambiamos de base Si B : V → V es un cambio de base ci = Bbi entonces entre las correspondientes bases duales β j de bi y γ k de cl tenemos que B ∗ = B T : Demostración: Si B ∗ (γ j ) = αj entonces αj = γ j ◦ B y al evaluar estos covectores en la base bl tenemos αj (bl ) = γ j ◦ B(bl ) = γ j (Bbl ) = γ j (cl ) = δj l es decir los αj hacen lo que las β j sobre los bi , por lo que αj = β j . Ası́ tenemos que mientras B lleva bi 7→ ci entonces B ∗ hace γ j 7→ β j . Ahora calculemos cuanto es el número: γ j (bi ). B ∗ γ j (bi ) = γ j ◦ B(bi ) = γ j (Bbi ) = γ j (vi ) = δj i pero también γ j (Bbi ) = γ j (B σ i bσ ) = B σ i γ j (bσ) = B σ i Aj σ = Aj σ B σ i por lo que Aj σ B σ i = δ j i , luego [A] = [B]−1 i.e. Aj σ = (B −1 )j σ , A.I.B.I Finalmente para encontrar la matriz de B ∗ , primero hacemos β j = B ∗ γ j = j (B )s γ s , lo que al evaluar en bi dará: ∗ j β j (bi ) = (B ∗ )s γ s (bi ) δj i = (B ∗ )s (B −1 )s i j 6 pero multiplicando esta última relación con B i k tenemos j δj i B i k = (B ∗ )s (B −1 )s i B i k Bj k = (B ∗ )s δ s k = (B ∗ )k j j aquı́ en B j k = (B ∗ )k j vemos que las filas de B ∗ son las columnas de B, y las columnas de B ∗ son las filas de B por lo tanto [B ∗ ] = [B]T Q.E.D. 7 §§ Tensores asociados. Leyes de subir y bajar ı́ndices A continuación un resumen sinóptico de algunas relaciones entre tipos de tensores, el tensor métrico y las leyes de subir y bajar ı́ndices §§§ Tensores asociados rango uno dualidad y reciprocos: β i (bj ) = δ i j , g is gsj = δ i j , gjs g si = δ i j bi = g is bs , bi = gis bs βi = gis β s , β i = g is βs subir y bajar ı́ndices simultaneamente de componentes y bases x = xs bs = xi δi s bs = xi git g ts bs = xt bt f = fs β s = fi δ i s β s = fi g it gts β s = f t βt f (x) = fs β s (xt bt ) = fs xt β s (bt ) = fs xt δ s t = fs xs f (x) = f s βs (xt bt ) = f s xt gsr β r (bt ) = f s xt gsr δ r t = f s xt gst = f s xs = fs xs evaluando en básicos: β i (bj ) = β i (g sj bs ) = g sj β i (bs ) = g sj δ i s = g ij βi (bj ) = gis β s (bj ) = gis β s (g tj bt ) = gis g tj β s (bt ) = gis g tj δ s t = gis g sj = δij βi (bj ) = gis β s (bj ) = gis δ s j = gij Los objetos β k ∧ β l se llaman bi-vectores básicos y se definene como βk ∧ βl = βk ⊗ βl − βl ⊗ βk también representan transformaciones bilineales V × V → R también representan transformaciones bilineales V × V → R y evaluando en básicos tenemos β k ∧ β l (bi , bj ) = (β k ⊗ β l − β l ⊗ β k )(bi , bj ) = β k ⊗ β l (bi , bj ) − β l ⊗ β k )(bi , bj ) = δk i δl j − δl i δk j 8 proyectores: β i (x) = β i (xj bj ) = xj δ i j = xi βi (x) = βi (xj bj ) = gis xj β s (bj ) = gis xj δ i j = gis xi = xs βi (x) = βi (xj bj ) = gis xj β s (bj ) = gis xj g sj = gis g sj xj = δi j xj = xi §§§ Tensores asociados rango dos 9 Ejemplo: 2 1 • Sea R = gen b1 = , b2 = 0 1 1 2 2 • y con métrica hv, wi = v 1 w + v w el usual producto punto 1 2 • y la matriz M = determina una transformación bilineal 2 3 1 2 : R 2 × R2 → R 2 3 2 mediante la forma cuadrática 1 > v 1 > (v, w) 7→ v M w = v2 2 2 3 Entonces la matriz de Gram es [gij ] = w1 w2 4 2 = v 1 w1 +2v 1 w2 +2v 2 w1 +3v 2 w2 2 2 com inverso [g ij ] = por lo que los vectores recı́procos son b1 = 1 1 b1 − b2 = 2 2 1 2 − 12 1 b2 = − b1 + b2 = 2 1 2 − 12 − 12 1 1 2 1 y ası́ la base dual está representada por 1 β ( β2( )=h )=h Por otro lado vemos que M (b1 , b1 ) = 2 0 M (b1 , b2 ) = 2 0 M (b2 , b1 ) = 1 1 M (b2 , b2 ) = 1 1 evaluando en 1 2 2 2 3 0 1 2 1 2 3 1 1 2 2 2 3 0 1 2 1 2 3 1 ∗ ∗ Expresamos a M ∈ R2 ⊗ R2 que da 1 2 − 12 1 2 1 , i , i básicos =4 =6 =6 =8 M = 4β 1 ⊗ β 1 + 6β 1 ⊗ β 2 + 6β 2 ⊗ β 1 + 8β 2 ⊗ β 2 Ahora queremos expresar a la misma transformación M pero inducida como función bilineal ∗ • R2 ⊗ R2 −→ R2 10 ∗ • R2 ⊗ R2 −→ R2 ∗ ∗ • R2 ⊗ R2 −→ R2 es decir, queremos ver como se ven las transformaciones bilineales asociadas M ∈ R2 ⊗ R2 ∗ M ∈ R2 ⊗ R M ∈ R2 ⊗ R Las respuesta se obtiene multiplicado M G−1 , G−1 M y G−1 M G−1 respectivamente por lo que para M = M s t bs ⊗ β t tenemos [M i j ] = [g ij ][Mij ] = [g ik Mkj ] que para nuestro ejemplo es 1 1 − 12 1 2 − 2 − 21 2 = 2 3 1 2 − 12 1 Para M = M s t β s ⊗ bt es 1 1 2 2 2 3 − 12 Y para M = M st bs ⊗ bt es 1 − 12 1 2 2 − 12 1 2 3 − 12 1 1 2 − 12 = − 12 1 ——————————————————– 11 3 2 0 − 12 2 = 0 − 21 − 41 3 2 M V × V >−→ R (v, w) 7→ v M w Mij = M (bi , bj ) M ∈V∗⊗V∗ M = Mst β s ⊗ β t en la secuencia anterior vemos que M es un aplicación que ”come” dos vectores en el espacio vectorial (euclidean) V y entrega un escalar. La expresión v > M w es el calculo > m11 v1 v 2 m21 . . .. .. mn1 vm m12 m22 ··· ··· .. mn2 ··· . ··· v1 m1n m2n v 2 µ ν .. ... = v Mµν w . vn mnn check that the dimensions of the matrices are correct for multiplication and to get an scalar. M V ∗ × V −→ R (f, w) 7→ f M w M i j = M (β i , bj ) M ∈V ⊗V∗ M = M s t bs ⊗ β t M s t = g su Mut G−1 M ahora > m1 1 f1 f2 m2 1 . . .. .. mn 1 fn m1 2 m2 2 ··· ··· .. ··· . ··· ——————————————————– 12 w1 m1 n 2 m n w2 µ ν .. ... = fµ M ν w . wn n1 n B1 = Bij β i ⊗ β j : V × V → R = Bij β i ⊗ β j (bµ , bν ) B1 (bµ , bν ) = Bij β i (bµ )β j (bν ) = Bij δ i µ δ j ν = Bµν B2 = B ij bi ⊗ bj : V ∗ × V ∗ → R B2 (β µ , β ν ) = B ij bi ⊗ bj (β µ , β ν ) = B ij β µ (bi )β ν (bj ) = B ij δ µ i δ ν j = B µν B2 (βµ , βν ) = B ij bi ⊗ bj (gµs β s , gνt β t ) = B ij gµs gνt bi ⊗ bj (β s , β t ) = B ij gµs gνt β s (bi )β t (bj ) = B ij gµs gνt δ s i δ t j = B ij gµi gνj = Bµ j gνj = Bµν B 3 = B i j β i ⊗ bj : V × V ∗ → R B3 (bµ , β ν ) B3 (bµ , βν ) = Bi j β i ⊗ bj (bµ , β ν ) = Bi j β i (bµ )β ν (bj ) = Bi j δ i µ δ ν j = Bµ ν = Bi j β i ⊗ bj (bµ , gsν β s ) = Bi j gsν β i (bµ )β s (bj ) = Bi j gsν δ i µ δ s j = Bi j gjν δ i µ = Bµ j gjν = Bµν 13 B 4 = B i j bi ⊗ β j : V ∗ × V → R B4 (β µ , bν ) = §§§ Tensores asociados rango tres g ij Ajkl = Ai kl g 2j Ajkl = A2 kl g 3k Ajkl = Aj 3 l g ij Ajkl = Ai kl g f l g hk g ij Ajkl = Aihf g 2l g 4k g 3j Ajkl = A342 g kj Ajkl = Ak kl = A1 1l + A2 2l + · · · gvr B rst u = Bv st u gws gvr B rst u = Bvw t u gmt gws gvr B rst u = Bvwmu g ij gkl grs gtu Ajp C lsu v = Ai p Ckrtv g kj gkl grs gtu Ajp C lsu v = Ak p Ckrtv = A1 p C1rtv + A2 p C2rtv + · · · §§ Problemas 0 8 0 1 10 9 0 1 1. Si usamos la matriz −1 π e 0 para determinar los componentes de 0 7 8 0 B = Bij β i ⊗ β j y si v = 5b1 − b2 + 8b4 tanto como w = −b1 + 3b2 − b3 + 9b4 entonces calcula B(v, w) 1 3 0 0 3 10 0 0 2. Si para la base {b1 , b2 , b3 , b4 } la matriz de Gram es 0 0 5 8 en0 0 8 13 tonces determina los componentes de los básicos reciprocos en términos de los bi ’s 14 3. Calcula (β 1 ∧ β 2 + β 3 ∧ β 4 )(b1 + 2b2 + 3b3 + 4b4 , −b2 − b4 ) 4. ¿Cuanto resulta de (5β 1 ∧ β 3 − 8β 2 ∧ β 4 )(b1 − b3 , −b2 + b4 )? 5. 6. 7. 8. 9. ———————————————– §§ Example of inner-product with a non diagonal matrix We are going to see an example of how a pairing 1 where [A] = 0 0 degenerated: 0 2 1 hv, wiA = v > [A]w 0 1 , gives a quadratic form definite positive and non 5 1 w 1 0 0 In general, hv, wiA = [v 1 , v 2 , v 3 ] 0 2 1 w2 , which is hv, wiA = w3 0 1 5 3 2 3 3 v 1 w1 + 2v 2 w2 + v 2 w3 + v w + 5v w x But for a generic u = y ∈ R3 we have hu, uiA = x2 + 2y 2 + 2yz + 5z 2 z Now, if we question about the positivity of the previous expresion we gotta make a change of basis in R3 in such a way the the matrix [A] gets is simpler form the answer is related with a diagonalization process which achieve: hu, uiA = u> Au = (JJ −1 u)> A(JJ −1 u) = (J −1 u)> )J > AJ(J −1 u) = (J −1 u)> DJ −1 u that is, J > AJ = D is a diagonal matrix. This is posible when we take J = [v1 , v2 , v3 ] a 3 × 3-matrix with the eigen-vector vi of the matrix [A] Av1 = λ1 v1 , lAv2 = λ2 v2 , Av3 = λ3 v3 Or matricialy A[v1 , v2 , v3 ] = [λ1 v1 , λ2 v2 , λ3 v3 ] which is the same as 15 λ1 0 0 AJ = J 0 λ2 0 0 0 λ3 But J > J gonna be diagonal and positive too, so λ1 0 0 µ1 J > AJ = J > J 0 λ2 0 = 0 0 0 λ3 0 0 µ2 0 0 0 =D µ3 with µi > 0 1 0 0 √ √ So, for the matrix [A] = 0 2 1 gives λ1 = 1, λ2 = 7−2 13 , λ3 = 7+2 13 0 1 5 Once we see than the eigenvalues are positives the quadratic form is represented hu, uiA = hJ−1 u, J −1 uiD µ1 0 0 = (J −1 u)> 0 µ2 0 J −1 u 0 0 µ3 = µ1 x2 + µ2 y 2 + µ3 z 2 Hence hu, uiA > 0 if and only if µ1 , µ2 , µ3 > 0 → Clearly hu, uiA = 0 if and only if u = 0 . (end of example) 16