Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. TEMA 3: RESOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES. MÉTODOS DIRECTOS. 3.1.- INTRODUCCIÓN Los sistemas de ecuaciones lineales aparecen en muchos problemas de ciencia e ingeniería, así como en aplicaciones de las matemáticas a las ciencias sociales. En primer lugar trataremos los métodos directos, que son aquellos que encuentran la solución en un número determinado de etapas, es decir, conocido de antemano. En los métodos directos, en general, se realiza una serie de operaciones sobre el sistema para pasar a otro equivalente (con la misma solución) pero más sencillo –por ejemplo un sistema triangular, es decir, en el que la matriz de coeficientes es triangular. Estas operaciones (transformaciones elementales) son: – Escalado: multiplicar a una ecuación por un escalar 0: Fi Fi. – Sustitución: sumar a una ecuación otra multiplicada por un escalar: Fi + Fj Fi. – Intercambio: intercambiar dos ecuaciones: Fi Fj. Comenzaremos con la resolución de sistemas triangulares. 3.2.- REPASO DE CONCEPTOS PREVIOS Definición. Matriz estrictamente diagonal dominante Una matriz cuadrada de orden n, A es estrictamente diagonal dominante si : aii n j 1, j i aij , i 1, 2, n Se puede demostrar que si una matriz es estrictamente diagonal dominante entonces es regular, es decir, tiene inversa. Definición. Matriz definida positiva Una matriz cuadrada de orden n, A es definida positiva si es simétrica y para cualquier vector columna x 0 se tiene que xt A x > 0. Al igual que en el caso anterior, si A es una matriz definida positiva entonces es regular. Además también se puede demostrar que todos los menores principales son positivos y que aii 0 , para i 1, 2, n . 3.3.- SISTEMAS LINEALES TRIANGULARES El algoritmo de sustitución regresiva es un algoritmo con el que podremos resolver un sistema de ecuaciones lineales cuya matriz de coeficientes sea triangular superior. Este algoritmo será posteriormente incorporado a la resolución general de un sistema de ecuaciones lineales. 24 Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. Definición. Se dice que una matriz A = [aij] de orden NN es triangular superior (inferior) cuando sus elementos verifican aij = 0 siempre que i > j (i < j). Si A es una matriz triangular superior, entonces se dice que el sistema de ecuaciones AX = B es un sistema triangular superior de ecuaciones lineales, sistema que tiene la siguiente forma: a11 x1 a12 x2 a13 x3 a1, N 1 x N 1 a1 N x N b1 a22 x2 a23 x3 a2 , N 1 x N 1 a2 N x N b2 a33 x3 a3, N 1 x N 1 a3 N x N b3 a N 1, N 1 x N 1 a N 1, N x N bN 1 a NN x N b N Teorema: Sustitución regresiva. Si AX = B es un sistema triangular superior con akk 0 para k = 1, 2, ..., N, entonces existe una solución única del sistema. Para resolverlo comenzaremos despejando xN en la última ecuación: xN = bN / aNN. Después pasamos a la penúltima ecuación para obtener xN-1: b a N 1, N x N x N 1 N 1 a N 1, N 1 y así sucesivamente. En la etapa k-ésima se despeja xk: xk bk a N j k 1 a kk kj xj ( k N 1, N 2, , 2, 1) 3.4.- ELIMINACIÓN GAUSSIANA Y PIVOTEO En esta sección desarrollamos un método para resolver un sistema general de ecuaciones lineales AX = B de N ecuaciones con N incógnitas. El objetivo es construir un sistema triangular superior equivalente UX = Y que podamos resolver usando el método de sustitución regresiva. Se dice que dos sistemas de orden NN son equivalentes cuando tienen el mismo conjunto de soluciones. Los teoremas del álgebra lineal prueban que hay ciertas transformaciones que no cambian el conjunto de soluciones de un sistema de ecuaciones lineales. Ejemplo 1. Vamos a usar el método de eliminación de Gauss para resolver el sistema: 4 x 3y z 7 2 x 4 y 5z 5 2 y 6z 23 x 25 Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. Para anular los primeros elementos de las filas 2ª y 3º les restaremos la primera multiplicada por –2/4 = m21 y por 1/4 = m31 respectivamente. Esto se representa por: b g b g F2 2 4 F1 F2 ; F3 1 4 F1 F3 El resultado que se obtiene es: 4x 0x 0x 3y 52 y 54 y z 7 9 2 z 17 2 25 4 z 85 4 b g b g b g b g En el siguiente paso haremos: F3 y el resultado es: FG 5 / 4 IJ F F FG 1IJ F F ; H 5 / 2 K H2K 2 4x 3 2 3y 52 y 3 m32 1 2 z 7 9 2 z 17 2 17 2 z 51 2 b g b g b g Aplicando la sustitución regresiva se obtiene: z 51 2 3; 17 2 y 17 2 3 9 2 7 3 3 2 2; x 1 4 5 / 2 Una forma eficaz de trabajar es almacenar todas las constantes del sistema lineal AX = B en una matriz de orden N(N+1) que se obtiene añadiendo a la matriz A una columna, la columna (N+1)-ésima, en la que se almacenan los términos de B (es decir, ak,N+1 = bk). Cada fila de esta matriz, que se llama matriz ampliada del sistema y se denota por Ã, contiene toda la información necesaria para representar la correspondiente ecuación del sistema lineal: a11 a12 a1 N a1 N 1 F Ga ~ AG GG Ha 21 N1 a 22 a 2 N a 2 N 1 a N 2 a NN a N N 1 I JJ JJ K Un sistema AX = B puede resolverse realizando las operaciones elementales con las filas de la matriz ampliada Ã. Las variables xk no sirven más que para marcar el sitio de los coeficientes y pueden ser omitidas hasta el final de los cálculos. Cualquiera de las operaciones elementales citadas anteriormente (escalado, intercambio o sustitución) aplicadas a la matriz ampliada produce un sistema lineal equivalente. El método de eliminación de Gauss o de eliminación gaussiana consiste en obtener un sistema equivalente triangular superior. Esto se puede representar mediante una sucesión de matrices ampliadas que son las que se van obteniendo al anular los elementos de cada columna que están por debajo de la diagonal principal. En un caso general de un sistema de cuatro ecuaciones con cuatro incógnitas: 26 Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. a11 x1 a 21 x1 a 31 x1 a 41 x1 a12 x 2 a 22 x 2 a 32 x 2 a 42 x 2 la matriz ampliada es: Fa Ga G GG a Ha a12 (1) a22 a32 (1) a42 (1) (1) (1) 11 ~ ~ A A (1) a13 x3 a 23 x3 a 33 x3 a 43 x3 (1) 21 (1) 31 (1) 41 a14 x4 a 24 x4 a 34 x4 a 44 x4 a13 ( 1) a23 a33(1) a43(1) a14 ( 1) a24 a34 (1) a44 (1) a15 (1) a25 a35 (1) a45 (1) ( 1) (1) b1 b2 b3 b4 (1) I JJ JJ K Para anular los elementos 2º, 3º y 4º de la primera columna haremos: es decir: aij ( 2) R|a S0 |Ta ai 1(1) Fi (1) F1 Fi a11 ij ij (i 1; j 1, 2 ,..., 5) (1) (1) d ai 1 (1) Fa G0 G GG 0 H0 ~ A ( 2) a ( 1) 11 (i 2 , 3, 4; j 1) ia (i 2 , 3, 4; j 2 , 3, 4, 5) (1) 1j a12 ( 2) a22 a32 ( 2 ) a42 ( 2 ) ( 1) a13 (2) a23 a33( 2 ) a43( 2 ) (1) 11 obteniendo: (i 2, 3, 4) (1) a14 (2) a24 a34 ( 2 ) a44 ( 2 ) (1) a15 (2) a25 a35 ( 2 ) a45 ( 2 ) ( 1) I JJ JJ K A continuación hay que anular los elementos 3º y 4º de la 2ª columna, y para ello: Fi es decir: aij ( 3) R|a S0 |Ta ij ij ai 2 ( 2 ) F2 Fi (2) a22 (i 1, 2; j 1, 2 ,..., 5) (2) (2) d ai 2 (2) Fa GG 0 GG 0 H0 ( 1) 11 ~ A ( 3) obteniendo: (i 3, 4) a 22 (2) a12 (1) ia (i 3, 4; j 2 ) 2j (2) a13 a22 0 0 (1) a23 a33 ( 3) a43 ( 3) ( 2) ( 2) (i 3, 4; j 3, 4 , 5) a14 (1) a24 a34 ( 3) a44 ( 3) ( 2) a15 (1) a25 a35( 3) a45( 3) (2) I JJ JJ K Finalmente hay que anular el 4º elemento de la columna tercera. Para ello: Fi es decir: aij ( 4) R|a S0 |Ta ij ij ai 3 ( 3) F3 Fi ( 3) a33 (i 1, 2 , 3; j 1, 2 ,..., 5) ( 3) ( 3) (i 4 ) d ai 3 ( 3) a 33 ( 3) ia (i 4; j 3) 3j 27 ( 3) (i 4; j 4 , 5) Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. resultando la matriz ampliada que corresponde al sistema triangular superior: Fa G0 G GG 0 H0 ( 1) 11 ~ A ( 4) a12 (1) a22 0 0 Definición: Pivotes y multiplicadores. ( 2) a13 (1) a23 a33( 3) 0 (2) a14 (1) a24 a34 ( 3) a44 ( 4 ) (2) a15 ( 1) a25 a35 ( 3) a45 ( 4 ) (2) I JJ JJ K El elemento aqq(q) de la matriz de los coeficientes en el paso q+1 que se usará para anular arq(q) (r = q+1, q+2, ..., N) se llama q-ésimo pivote; y la fila q-ésima se llama fila pivote. Los números mrq = arq(q) / aqq(q) (r = q+1, q+2, ..., N) por los que se multiplica la fila pivote para restarla de las correspondientes filas posteriores se llaman multiplicadores de la eliminación. Un problema que puede aparecer es el siguiente: si aqq(q) = 0, entonces no podemos usar la fila q-ésima para eliminar los elementos de la columna q-ésima que están por debajo de la diagonal principal. Lo que hacemos es intercambiar la fila q-ésima con alguna fila posterior para conseguir un elemento pivote que no sea cero; si esto no puede hacerse, entonces la matriz de los coeficientes del sistema es singular y el sistema no tiene solución única o es incompatible. Teorema: Eliminación gaussiana con sustitución regresiva. Si A es una matriz invertible de orden NN, entonces existe un sistema lineal UX = Y, equivalente al sistema AX = B, en el que U es una matriz triangular superior con elementos diagonales ukk 0. Una vez construidos U e Y, se usa el algoritmo de sustitución regresiva para resolver UX = Y, calculando así la solución X. Pivoteo para evitar aqq(q) = 0. Se representa por aqq(q) el coeficiente correspondiente a la etapa (q). Cuando aqq(q) = 0, la fila q-ésima no puede usarse para eliminar los elementos de la columna q-ésima que están por debajo de la diagonal principal. Se hace necesario entonces hallar una fila posterior, digamos la k-ésima (con k > q), en la que akq(q) 0, e intercambiarlas para obtener un pivote no nulo. Este proceso se llama pivoteo y el criterio para decidir qué fila escoger se llama estrategia de pivoteo. La estrategia de pivoteo trivial es la siguiente: Si aqq(q) 0, entonces no se hace intercambio de fila; mientras que si aqq(q) 0, entonces se localiza la primera fila por debajo de la q-ésima en la cual se tenga akq(q) 0 y se intercambia la fila q-ésima con la k-ésima. Esto proporciona el pivote no nulo deseado. 3.4.2.- Estrategias de pivoteo para reducir los errores. Como los ordenadores usan una aritmética cuya precisión está fijada de antemano, es posible que cada vez que se realice una operación aritmética se introduzca un pequeño error. El uso de la estrategia de pivoteo trivial en la eliminación gaussiana puede llevar 28 Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. aparejado un error apreciable en la solución de un sistema de ecuaciones lineales calculada con un computador. El propósito de las estrategias de pivoteo es usar como pivote el elemento de mayor magnitud y, una vez colocado en la diagonal principal, usarlo para eliminar los restantes elementos de su columna que están por debajo de él. Si en la columna q hay más de un elemento no nulo en la diagonal principal o por debajo de ésta, entonces hay varias formas de elegir qué filas se intercambian. La estrategia de pivoteo parcial es la más habitual. Consiste en lo siguiente: Para reducir la propagación de los errores de redondeo, se sugiere que se compare el tamaño de todos los elementos de la columna q desde el que está en la diagonal hasta el de la última fila. Una vez localizada la fila, digamos la k-ésima, en la que se encuentra el elemento de mayor valor absoluto; o sea, si | akq | max{| aqq |, | aq 1q |, , | a N -1q |,| a Nq |} entonces intercambiamos la fila q-ésima con la k-ésima, salvo que k = q; de esa manera, los multiplicadores mrq (r = q+1, ..., N) serán todos menores que 1 en valor absoluto. Este proceso suele conservar las magnitudes relativas de los elementos de la matriz U del mismo orden que las de los coeficientes de la matriz original. Normalmente, la elección como pivote del mayor elemento también ayuda a que se propague un error más pequeño. Con la técnica de pivoteo parcial escalado se evitan errores de redondeo que pueden producirse si el pivote es muy pequeño respecto del resto de los elementos de su fila. El pivoteo parcial escalado puede usarse para reducir aún más los efectos de la propagación de los errores. 3.5.- SISTEMAS MAL CONDICIONADOS Algunos sistemas son muy sensibles a los errores de redondeo y el vector solución puede ser bastante inexacto. En este caso se dice que el sistema es inestable o que está mal condicionado. En este tipo de sistemas lo que suele ocurrir es que pequeños cambios en los coeficientes o en los términos independientes dan lugar a cambios apreciables en la solución como se muestra en el siguiente ejemplo. Ejemplo 2: Sea el sistema 1 1 1.01 0.99 x 2.00 0.99 1.01 y 2.00 cuya solución exacta es : . Si se modifica ligeramente los términos independientes, la solución de los siguientes sistemas son las que se muestran a continuación: 1.01 0.99 x 2.02 0.99 1.01 y 1.98 29 2 0 Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. 1.01 0.99 x 1.98 0.99 1.01 y 2.02 0 2 Se puede considerar al sistema como una máquina cuya entrada son los términos independientes y cuya salida son las soluciones. b1 x1 b2 x2 A x b b3 x3 En el ejemplo anterior se ha visto que pequeños cambios en la entrada del sistema dan lugar a grandes cambios en la salida. Cuando la solución obtenida está afectada por los errores de redondeo no es exacta. 3.6.- FACTORIZACIÓN TRIANGULAR La factorización triangular de una matriz consiste en escribir dicha matriz A como el producto de una matriz triangular inferior L, cuyos elementos en la diagonal principal son todos iguales a 1, por una matriz triangular superior U, cuyos elementos diagonales son distintos de cero. Definición: factorización triangular o factorización LU Diremos que una matriz invertible A admite una factorización triangular o factorización LU si puede expresarse como el producto de una matriz triangular inferior L, cuyos elementos diagonales son todos iguales a 1, por una matriz triangular superior U: A = LU o, escrito de manera desarrollada: a11 a12 a13 a14 1 0 a21 a22 a23 a24 m21 1 a31 a32 a33 a34 m31 m32 a41 a42 a43 a44 m41 m42 F GG GG H I JJ JJ K F GG GG H 0 0 1 m43 I Fu JJ GG 0 JJ GG 0 KH 0 0 0 0 1 11 u12 u22 0 0 u13 u23 u33 0 u14 u24 u34 u44 I JJ JJ K La condición de que A sea invertible implica que ukk 0 para todo k. La notación para los elementos de L es mij; la razón para elegir mij en vez de lij es que se puede demostrar que estos elementos coinciden con los multiplicadores utilizados en el procedimiento de eliminación gaussiana. 30 Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. 3.6.2.- Solución de un sistema lineal Supongamos que la matriz de los coeficientes A de un sistema lineal AX = B admite una factorización triangular; entonces la solución de LUX = B puede obtenerse definiendo Y = UX y resolviendo dos sistemas lineales. En primer lugar se halla Y en el sistema LY = B y luego X en el sistema UX = Y. En forma desarrollada, primero debemos resolver el sistema triangular inferior y1 b1 b2 m21 y1 y2 b3 m31 y1 m32 y2 y3 m41 y1 m42 y2 m43 y3 y4 b4 para obtener y1, y2, y3, e y4 y, una vez que lo tenemos, resolver el sistema triangular superior u11 x1 u12 x2 u13 x3 u14 x4 y1 u22 x2 u23 x3 u24 x4 y2 u33 x3 u34 x4 y3 u44 x4 y4 3.6.3.- Factorización triangular Ahora comentaremos la forma de obtener factorizaciones triangulares. Si no hace falta realizar intercambios de filas cuando usamos eliminación gaussiana, entonces los multiplicadores mij son los elementos subdiagonales de L. Vamos a comprobar para una matriz A de orden 3 que el proceso de eliminación gaussiana, almacenando los multiplicadores como elementos subdiagonales de L, sirve también para factorizar la matriz A como producto de una triangular inferior L por una triangular superior U, que es la matriz de coeficientes resultado de la eliminación gaussiana. LMa MMa Na 11 21 31 a12 a22 a32 a13 a23 a33 OP LMa PP MMa Q Na ( 1) 11 ( 1) 21 ( 1) 31 a12(1) a13(1) (1) 22 (1) 32 (1) 23 (1) 33 a a a a OP PP Q Para anular los elementos a21 y a31 se realizan las transformaciones de filas: a a F2 F2 21 F1 F2 m21 F1 con m21 21 , y a11 a11 a a F3 F3 31 F1 F3 m31 F1 con m31 31 a11 a11 Llamando A( 2 ) a la matriz obtenida y M (1) a la matriz correspondiente a las transformaciones efectuadas se tiene que A( 2 ) M (1) A , siendo : 31 Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. M ( 1) LM 1 m MM N m OP 0 ,y A P 1QP 21 1 31 0 LMa M 0 MN 0 a12(1) (1) 11 0 0 (2) a a a13(1) a a (2) 22 (2) 32 (2) Para hacer 0 el elemento a32 se realiza la transformación: F3 F3 (2) 23 (2) 33 OP PP . Q (2) (2) a32 a32 , con F F m F m 2 3 32 2 32 (2) (2) a22 a22 Llamando A( 3) a la matriz obtenida y M ( 2 ) a la matriz correspondiente a la transformación efectuada se tiene que : A( 3) M ( 2 ) A ( 2 ) , siendo : M (2) LM1 0 MM N0 OP 0 ,y A P 1PQ 0 1 m32 LMa M 0 MN 0 ( 1) 11 0 ( 3) a12(1) a a ( 2) 22 ( 2) 32 a13(1) a a ( 2) 23 ( 3) 33 OP PP U , Q es decir : U M ( 2 ) A ( 2 ) M ( 2 ) M (1) A Premultiplicando por M ( 2) 1 y M (1) M (1) 1 1 M ( 2) , 1 U A 1 Se comprueba fácilmente que M (1) es la matriz correspondiente a la transformación que deshace el cambio, es decir, la transformación que consiste en sumar a la segunda fila la primera multiplicada por m21 y sumar a la tercera fila la primera 1 multiplicada por m31 . Idem. Para M (2) . 1 0 0 (1) 1 M m21 1 0 , y M ( 2 ) LM MM Nm 31 0 OP P 1QP Es decir, L M como queríamos comprobar. (1) 1 M 1 1 m21 m31 (2) 1 LM1 0 MM N0 0 1 m32 0 1 m32 OP 0 . P 1QP 0 0 0 1 Teorema:( Factorización directa A = LU sin intercambios de filas). Supongamos que podemos llevar a cabo hasta el final el proceso de eliminación gaussiana, sin intercambios de filas, para resolver un sistema de ecuaciones lineales cualquiera AX = B. Entonces la matriz A puede factorizarse como el producto de una matriz triangular inferior L por una matriz triangular superior U; es decir, A = LU. Es más, L puede ser construida de manera que sus elementos diagonales son todos iguales a 1, y U tiene todos sus elementos diagonales distintos de cero. Esta 32 Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. factorización se denomina factorización de Doolittle. Una vez halladas L y U, la solución X puede calcularse en dos pasos: 1. Hallar Y resolviendo LY = B con el método de sustitución progresiva; 2. Hallar X resolviendo UX = Y con el método de sustitución regresiva. Cuando el proceso de eliminación gaussiana puede llevarse a cabo hasta el final en la matriz ampliada que se obtiene añadiendo la columna B a la matriz A, entonces los elementos subdiagonales de L coinciden con los multiplicadores correspondientes que se usan en la eliminación, la matriz triangular superior U es la matriz de los coeficientes del sistema triangular superior UX = Y obtenido al final del proceso de eliminación, y el segundo miembro de este sistema es precisamente el vector Y solución del sistema. Las matrices L y U, en el caso general de un sistema de n ecuaciones con n incógnitas, son: F1 GG m L Gm GG GH m 21 31 N1 0 1 mN , N 1 I J J J ; 0J J 1JK 0 Fa GG 0 U G GG GH 0 (1) 11 a12 ( 1) a 22 (2) a1, N (1) a N 1, N ( N 1) 0 aN,N (N ) I JJ JJ JJ K Mediante la teoría del álgebra de transformaciones elementales de matrices se puede demostrar que: A = LU En el caso de que la matriz A sea una matriz estrictamente diagonal dominante se puede demostrar que la eliminación Gaussiana se puede llevar a cabo en cualquier sistema lineal de la forma A x = b sin realizar ningún intercambio de filas. Además los cálculos son estables frente al crecimiento de los errores de redondeo. Lo mismo se puede afirmar si A es una matriz definida positiva. 3.6.4.- Otras factorizaciones La factorización de una matriz A en producto de una matriz triangular inferior L por otra triangular superior U puede resolverse también como un sistema de ecuaciones lineales en el que las incógnitas son los elementos de L y U, las ecuaciones el resultado de la ecuación matricial LU = A (hay nn ecuaciones para una matriz A de orden n) y los términos independientes, los elementos de A. En este sistema hay más incógnitas que ecuaciones, ya que L y U, si no se pone ninguna otra condición, tienen cada una (n2+n) / 2 elementos, o sea, n2+n en total. En la factorización de Doolittle se han hecho los lii = 1 (i = 1, 2, ..., n). Si en lugar de esto se hace uii = 1 (i = 1, 2, ..., n) se obtiene la factorización de Crout. Cuando A es una matriz definida positiva la eliminación gaussiana siempre puede realizarse sin intercambios de filas, y se puede demostrar que A puede ser factorizada como producto de una matriz triangular inferior por su traspuesta: 33 Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. A = L Lt A esta factorización se la conoce como factorización de Cholesky. Si al intentar esta factorización con una matriz simétrica surgen raíces de números negativos, la matriz no es definida positiva. 34 Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. 3.7.- TEMA 3 . EJERCICIOS 1.- Resolver por Gauss los siguientes sistemas: a) x + y + 2z = 1 x + 2y + z = 1 b) x + 2y + z = 6 c) x + y =2 2x + y + 2z = 6 x + 4y + 6z = 5 2y + y + z = 1 x + 2y + 2z = 7 6y + 14z = 6 Sol: a) x=1/4, y=1/4 , z=1/4 b) x=1 , y=2 , z=1 c) x=1 , y=1 , z=0. 2.- Resolver los siguientes sistemas utilizando el método de Gauss y Gauss-Jordan. a) x+ y + z= 4 2x + 3y + z= 9 x + 9y - 6z = 1 - z = -2 -3x + 8y + 5z = 6 x- y b) 2x - 7y + 4z = 9 Sol: a) x= 1, y=2 , z=1. b) x=4 , y=1 , z=2. 3.-Hallar A1 siendo a) A = LM1 MM 1 MN 10 0 1 2 2 1 0 1 1 OP PP PQ 3 1 1 1 F-1 GG 2 1 G Sol: a) G 4 GG 41 GG 1 H4 b) 1 3 2 5 2 1 2 A = 3 2 5 4 9 4 1 4 I JJ 1J JJ 1 JJ 0J K 1 LM 2 MM 1 N0 1 2 1 F3 GG 4 1 b) G GG 12 H4 OP 1 P 2 PQ 0 1 2 1 1 2 1 4 1 2 3 4 I JJ JJ JK 4.- Resolver el siguiente sistema, obteniendo previamente la factorización LU de la matriz del sistema, utilizando eliminación gaussiana 35 Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. x + y + 3t = 4 1 2x + y - z + 3x - y - z + 2t = -3 -x + 2y + 3z - t = t = 4 Sol: x=-1, y=2 , z=0 , t=1 5.- ¿En qué forma es posible evaluar A a partir de la descomposición factorial de Doolittle de la matriz A?. Aplicar este resultado para calcular : 1 2 3 4 2 1 4 2 A 2 5 7 12 2 2 6 22 Sol: A = u11.u22.u33.u44 = -2. 6.- Resolver los siguientes sistemas a partir de la factorización de Doolittle: x 2y 3 a) Sol: x=15 , y=-6, z=7. y z 1 2 x 4 y z 1 x z 2 b) 3 Sol: x=1 , y=3 , z=1. y x z 0 6x 12 x c) 3x 6 x 2y 8y 13 y 4y 2 z 4t 6z 10t 9 z 3t z 18t 10 20 2 19 Sol: x=1 , y=1, z=1 , t=1. 7.- Aplicar el método de Crout para resolver el siguiente sistema: 2 x 6 y 8z 24 5x 4 y 3z 2 3x y 2 z 16 Sol: x=1, y=3 , z=5 8.- Obtener la descomposición L U de las siguientes matrices utilizando el método de Crout: 36 Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos. a) b) F1 A G 1 GH 2 F6 G2 BG GG 1 H 1 4 I 4J J 14K 2 4 1 1 1 4 1 5 F1 Sol: G 1 GH 2 2 0 1 I JJ JJ 3K 1 0 1 F6 G2 Sol: G GG 1 H 1 I F1 0J G 0 J G 1K H 0 0 0 1 4 1 6 I JJ JJ K 0 I 3 / 2J J 1 K 2 F GG GG H 0 0 0 1 1 / 3 1 / 6 1 / 6 10 / 3 0 0 0 1 1 / 5 1 / 10 2 / 3 37 / 10 0 0 0 1 9 / 37 1 / 3 9 / 10 191 / 74 0 0 0 1 9.- Aplicar el método de Cholesky para resolver los siguientes sistemas: x y z 1 a) x 5y z 1 Sol: x=9/2, y=3/2 , z=-2 x y 3z 0 b) 4 x1 x1 x1 x1 x2 3x2 x2 x2 x3 x3 2 x3 x4 x4 x4 8 1 6 6 Sol: x= 1/7 , y=-19/7 ,z=11/7 , t=60/7 10.- Siendo A la matriz del ejercicio nº 5 calcular A-1 aplicando la factorización de Doolittle a los cuatro sistemas de ecuaciones resultantes. 183 31 65 5 40 7 14 1 Sol: 39 110 19 3 17 3 6 1 / 2 F GG GG H 37 I JJ JJ K I JJ JJ K