1 resumen04 Sistemas lineales y matrices Sistemas de ecuaciones lineales Un sistema de ecuaciones lineales es de la forma indicada a representar por una matriz (una tabla) como la de la derecha: a11 a12 a11 x1 + a12 x2 + · · · + a1n xn = b1 a21 a22 a21 x1 + a22 x2 + · · · + a2n xn = b2 (1) ↔ ... ... ... ... ... ... = ... am1 x1 + am2 x2 + · · · + amn xn = bm am1 am2 la izquierda y se suele ... ... ... ... a1n b1 a2n b2 . . . . . . amn bm Un sistema de este tipo puede tener solución única (compatible determinado), infinitas soluciones (compatible indeterminado) o no tener solución (incompatible). La matriz de un sistema es una matriz escalonada (o el sistema está en forma escalonada) si cada fila no nula tiene siempre más ceros a la izquierda que la que está por encima y las filas nulas, si las hubiera, están colocadas al final. Siempre es posible reducir un sistema a forma escalonada empleando tres transformaciones elementales sobre las ecuaciones (o equivalentemente sobre las filas de la matriz): 1. Sumar a una ecuación un múltiplo de otra. 2. Multiplicar una ecuación por un número no nulo. 3. Intercambiar dos ecuaciones. Todas ellas se pueden invertir, así que no se pierden soluciones del sistema al aplicarlas. El algoritmo de reducción de Gauss consiste en aplicar estos tres procesos (el segundo no es estrictamente necesario) para producir ceros por columnas en la matriz y llegar a la forma escalonada. Ejemplo. Consideremos el sistema: x +2y +3z x −y +z x +3y −z 3x +4y +3z =2 =0 = −2 =0 Para resolver por reducción de Gauss, Primero se crean los ceros en la primera columna bajo el primer elemento: 1 1 1 3 2 -1 3 4 3 1 -1 3 2 0 -2 0 1 −→ f2 7→f2 −f1 f3 7→f3 −f1 f4 7→f4 −3f1 0 0 0 2 -3 1 -2 3 -2 -4 -6 2 -2 -4 -6 2 Fernando Chamizo resumen04 Intercambiar las filas es superfluo pero nos permite evitar los cálculos con fracciones al crear los ceros de la segunda columna: 1 −→ f2 ↔f3 0 0 0 2 1 -3 -2 2 -4 -2 -6 3 -4 -2 -6 1 −→ f3 7→f3 +3f2 −→ f4 7→f4 −f3 0 f4 7→f4 +2f2 Con un paso más llegamos a la forma escalonada: |1 0 0 0 2 |1 0 0 2 1 0 0 0 0 3 -4 |-14 0 2 -4 -14 0 3 -4 -14 -14 2 -4 -14 -14 Los elementos señalados se llaman elementos pivote y señalan el principio de los “escalones”. Con más rigor, un elemento pivote en una matriz escalonada es un elemento no nulo que tiene ceros a la izquierda. Las columnas que contienen a los elementos pivote se llaman columnas pivote. Una vez que se ha llegado a la forma escalonada es fácil resolver el sistema (o deducir que no tiene solución), despejando de abajo a arriba las ecuaciones. Así en el ejemplo anterior la tercera ecuación de la forma escalonada implica z = 1, sustituyendo en la segunda se tiene y = 0 y estos resultados en la primera dan x = −1. El algoritmo de reducción de Gauss-Jordan es similar al del Gauss pero cuando se ha finalizado éste se procede a crear ceros encima de los elementos pivote empleando las filas de abajo a arriba sin modificar la estructura escalonada. Multiplicando por un número adecuado (transformación 2) también se consigue que los elementos pivote sean unos. Esta forma escalonada en la que los elementos pivote son unos y el resto de los elementos de las columnas pivote son ceros a veces se llama forma escalonada reducida. Ejemplo. En el ejemplo anterior dividiendo entre −14 en la tercera fila los pivotes serán unos: 1 0 0 0 2 1 0 0 3 -4 -14 0 2 -4 -14 0 1 −→ f3 7→−f3 /14 0 0 0 2 1 0 0 3 -4 1 0 2 -4 1 0 Ahora creamos ceros encima del tercer elemento pivote y después del segundo: 1 −→ f2 7→f2 +4f3 f1 7→f1 −3f3 0 0 0 2 1 0 0 0 0 1 0 -1 0 1 0 1 −→ f1 7→f1 −2f2 0 0 0 0 1 0 0 0 0 1 0 -1 0 1 0 Al emplear la reducción de Gauss-Jordan en la columna de la derecha leeremos la solución del sistema, si es que es única. Si una de la últimas ecuaciones fuera “0 =constante 3 resumen04 no nula” entonces se llegaría a una contradicción y no habría solución. En otro caso, si hay columnas que no son columnas pivote las incógnitas correspondientes se pueden elegir como parámetros arbitrarios. El algorimto de Gauss Jordan es conveniente para resolver simultáneamente varios sistemas que comparten la misma matriz de coeficientes (la formada por los aij ). Para ello simplemente se añaden nuevas columnas correspondientes a los diversos sistemas. Ejemplo. Para resolver simultáneamente x −2y +z = 0 3x −6y +2z = 0 la matriz a considerar sería ( 1 3 x −2y +z = 2 3x −6y +2z = 1 y -2 -6 1 2 0 0 2 1 ) que se reduce a forma escalonada en un solo paso ( ) ( 1 -2 1 0 2 1 −→ 3 -6 2 0 1 0 f2 7→f2 −3f1 -2 0 1 -1 0 0 2 -5 ) . Creamos ahora un cero encima del segundo elemento pivote y lo reducimos a uno: ) ( ) ( 1 -2 0 0 -3 1 -2 1 0 2 −→ . −→ 0 0 1 0 5 0 0 1 0 5 f2 7→−f2 f1 7→f1 −f2 En ambos casos la segunda variable es un parámetro arbitrario, digamos y = λ y se tiene como soluciones del primer y del segundo sistema, respectivamente: x = 2λ x = −3 + 2λ y=λ y=λ y z=0 z = 5. Matrices y sus operaciones Una matriz m × n no es más que una tabla de números con m filas y n columnas. Se suele denotar aij al elemento que está en la fila i y en la columna j de una matriz A. Escribiremos Mm×n para indicar el conjunto de todas las matrices de m filas y n columnas. Las matrices de Mm×n se suman de la forma esperada: sumando los elementos en las mismas posiciones. Para multiplicarlas por un número λ se multiplica cada elemento por λ. La multiplicación de dos matrices sólo se define si el número de columnas de la primera coincide con el número de filas de la segunda. Si A ∈ Mm×n y∑B ∈ Mn×l entonces AB ∈ Mm×l . El elemento ij del producto se calcula con la fórmula aik bkj . Esto equivale a decir que se hace el producto escalar habitual de la fila i de A por la columna j de B. 4 Fernando Chamizo Ejemplo. Se tiene la siguiente suma y producto de matrices: ( ) ( ) ( ) ( ) 0 1 2 1 −1 2 1 1 2 3 −1 + = , 3 4 0 1 3 5 4 5 6 −2 resumen04 ( ) 0 −8 3 0 = . −17 6 1 Hay alguna matrices básicas que reciben nombres especiales: 1. Las matrices de Mn×n , por razones obvias, se dice que son matrices cuadradas de dimensión n. 2. Las matrices cuadradas A con aij = aji se dice que son matrices simétricas. 3. Las matrices cuadradas A tales que aij = 0 cuando i ̸= j se denominan matrices diagonales. 4. La matriz diagonal A ∈ Mn×n tal que aii = 1 para todo i se dice que es la matriz identidad y se suele denotar con I. Es el elemento neutro de la multiplicación en Mn×n , es decir A = IA = AI para cualquier A ∈ Mn×n . 5. La matriz de Mm×n que tiene todos sus elementos cero se llama matriz nula y a veces se denota con O. Es el elemento neutro de la suma, es decir A = A + O = O + A. Si convenimos en escribir los vectores de Rn en columna entonces el sistema de ecuaciones lineales genérico (1) se representa con la simple ecuación matricial A⃗x = ⃗b donde a11 . . . a1n x1 b1 .. .. .. . ⃗ . A= . ⃗x = . , b = . . . , am1 . . . amn xn bm Las transformaciones elementales en los algoritmos de Gauss y Gauss-Jordan pueden escribirse en términos de multiplicaciones de matrices y eso tiene su interés teórico aunque no entraremos aquí en ello. A las matrices cuadradas se les asocia un número llamado determinante, denotado por la matriz limitada por barras verticales. En el caso de dimensión 2 se tiene a11 a12 a21 a22 = a11 a22 − a12 a21 . En dimensión 3 hay reglas mnemotécnicas bien conocidas para recordar las fórmula a11 a12 a13 a21 a22 a23 = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 − a33 a21 a12 . a31 a32 a33 En general el determinante de una matriz n × n se define inductivamente desarrollando por una fila o columna (véase [HVZ12]). Con lo visto en este curso, el determinante también se puede definir y calcular como el producto de los elementos de la diagonal tras aplicar reducción de Gauss sin utilizar el segundo proceso y cambiando el signo de una fila cuando se intercambia con otra. 5 resumen04 Una matriz cuadrada A con |A| = ̸ 0 es invertible, eso significa que existe una matriz B, llamada su matriz inversa tal que I = AB = BA. A la matriz inversa de A se la denota con A−1 . Si A es una matriz invertible entonces el sistema A⃗x = ⃗b tiene solución única dada por ⃗x = A−1⃗b. En dimensión 2, la fórmula para la inversa es: ) ) ( ( 1 a22 −a12 a11 a12 −1 =⇒ A = A= a21 a22 |A| −a21 a11 El cálculo de la inversa es costoso especialmente en dimensiones grandes. Hay una fórmula general pero involucra muchos determinantes y por tanto es poco práctica más allá de dimensión 3 ó 4. Una manera de calcular la matriz inversa de A es tratar de resolver la ecuación matricial AX = I donde X es una matriz n × n cuyos elementos son incógnitas. Esto conduce a n sistemas de ecuaciones, todos ellos con la misma matriz de coeficientes e igualados a cada una de las columnas de I. Con ello se deduce que el cálculo de la inversa equivale a aplicar el algoritmo de Gauss-Jordan a (A|I). Si A es invertible, el final del algoritmo será (I|A−1 ). Ejemplo. Calculemos la inversa de 1 2 0 3 . A = 0 1 2 −1 −8 Los pasos del algoritmo de Gauss-Jordan son: ) ( 1 0 0 −→ f3 7→f3 −2f1 ( −→ f3 7→f3 /7 1 0 0 ( −→ f1 7→f1 −2f2 2 1 0 1 0 0 2 1 -5 0 3 1 0 1 0 0 3 -8 1 0 -2/7 0 0 1 -5/7 6/7 -2/7 1 0 -2 0 1 5/7 0 1 0 0 0 1 0 0 1/7 16/7 -8/7 5/7 ( −→ f3 7→f3 +5f2 ) ( −→ f2 7→f2 −3f3 6/7 -3/7 1/7 1 0 0 2 1 0 0 3 7 1 0 -2 1 0 0 2 1 0 0 0 1 1 6/7 -2/7 0 1 5 0 0 1 0 -8/7 5/7 ) 0 -3/7 1/7 ) ) =⇒ A−1 −5/7 16/7 6/7 = 6/7 −8/7 −3/7 . −2/7 5/7 1/7 Referencias. Hay muchos libros de álgebra lineal y casi todos tienen contenidos parecidos. Uno con muchos ejemplos y buenas explicaciones es [HVZ12]. Una faceta del álgebra lineal, en la que desafortunadamente no incidimos en este curso, es la cantidad de aplicaciones que tiene. Éstas aplicaciones están en gran medida sustentadas por la posibilidad de 6 Fernando Chamizo resumen04 programar eficientemente muchos cálculos de álgebra lineal. Un libro que cubre las aplicaciones y los cálculos numéricos es [Str80]. Por otro lado, [Gol86] satisfará a los que tengan interés en la interpretación geométrica y física del álgebra lineal, aunque quizá no sea fácil de encontrar. Por último, para los estudiantes muy avanzados, [Lax97] es un libro escrito por un matemático de primera línea que constituye una excepción a la uniformidad de temas de los libros de álgebra lineal. Referencias [Gol86] L. I. Golovina. Algebra Lineal y Algunas de sus Aplicaciones. Mir, 1986. [HVZ12] E. Hernández, M.J. Vázquez, and M.A. Zurro. Álgebra lineal y Geometría. Pearson/Addison Wesley, tercera edition, 2012. [Lax97] P. D. Lax. Linear algebra. Pure and Applied Mathematics (New York). John Wiley & Sons, Inc., New York, 1997. A Wiley-Interscience Publication. [Str80] G. Strang. Linear algebra and its applications. Academic Press, New York-London, second edition, 1980.