Ecuaciones Diferenciales 26 de noviembre de 2002 1 ¶Indice 1 Introducci¶ on a las ecuaciones diferenciales. 1.1 Naturaleza de las ecuaciones diferenciales. . . . . . . . . . 1.2 Clasi¯caci¶on de las ecuaciones diferenciales ordinarias. . . . 1.3 Soluciones de las ecuaciones diferenciales ordinarias . . . . 1.4 Interpretaci¶on de una ecuaci¶on diferencial de primer orden. 2 M¶ etodos de resoluci¶ on para ecuaciones 2.1 Separaci¶on de variables. . . . . . . . . 2.2 Ecuaciones homog¶eneas. . . . . . . . . 2.3 Ecuaciones diferenciales exactas. . . . . 2.4 Ecuaciones lineales de primer orden. . 2.5 Curvas ortogonales. . . . . . . . . . . . 2.6 Ejercicios . . . . . . . . . . . . . . . . de . . . . . . . . . . . . primer orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Ecuaciones lineales de orden superior 3.1 Introducci¶on. Teorema de existencia y unicidad. . . . . . . . . 3.2 Resoluci¶on de la ecuaci¶on homog¶enea . . . . . . . . . . . . . . 3.3 La ecuaci¶on homog¶enea de orden n, de coe¯cientes constantes. 3.4 La ecuaci¶on no homog¶enea . . . . . . . . . . . . . . . . . . . . 3.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Transformada de Laplace 4.1 Introducci¶on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Condiciones de existencia de transformadas. . . . . . . . . . . . . . 4.3 Transformada de derivadas e integrales. . . . . . . . . . . . . . . . . 4.4 Teoremas operacionales. . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Aplicaci¶on a las ecuaciones diferenciales de coe¯cientes constantes. . 4.6 M¶etodo de fracciones simples para el c¶alculo de la transformada inversa de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7 Aplicaci¶on a las ecuaciones diferenciales lineales con coe¯cientes que son polinomios de grado 1. . . . . . . . . . . . . . . . . . . . . . . . 4.8 Otras propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.9 Delta de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.10 Ejercicios: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 . . . . 4 4 6 7 10 . . . . . . 14 14 15 17 21 23 26 . . . . . 31 31 33 37 38 41 . . . . . 44 44 46 47 48 50 . 51 . . . . 52 53 54 58 5 Sistemas de ecuaciones diferenciales. 5.1 Preliminares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Sistemas lineales de primer orden . . . . . . . . . . . . . . . . . . . . 5.3 Sistemas lineales homog¶eneos . . . . . . . . . . . . . . . . . . . . . . 5.4 Soluciones de un sistema no homog¶eneo. Variaci¶on de los par¶ametros. 5.5 Sistemas lineales homog¶eneos de coe¯cientes constantes . . . . . . . 5.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 60 60 62 63 65 68 77 Cap¶³tulo 1 Introducci¶ on a las ecuaciones diferenciales. 1.1 Naturaleza de las ecuaciones diferenciales. 1.1.1 De¯nici¶ on.- Una ecuaci¶on diferencial es una igualdad que involucra una funci¶on y una o varias de sus derivadas. Si la funci¶on depende de una sola variable, la ecuaci¶on diferencial se denomina ordinaria (EDO); si depende de varias variables, la ecuaci¶on diferencial se denomina ecuaci¶ on en derivadas parciales (EDP). Ejemplos 1: y 0 ¡ 5y = 1 o¶ y 00 ¡ 2y 0 + 6y = 0 o¶ y 0 ¡ xy 1=2 = 0 o¶ (y 0 )2 + 1 = 0 o¶ dy ¡ 5y = 1 dx d2 y dy ¡ 2 + 6y = 0 dx2 dx dy ¡ xy 1=2 = 0 dx à !2 dy +1=0 dx (1.1) (1.2) (1.3) (1.4) Son ecuaciones diferenciales ordinarias, en donde y es una funci¶on que depende de x, y = f (x). Se suele representar a la funci¶on por y, mientras que x o t representan generalemente las variables independientes. Ejemplos 2: @2u @x@y x @u + y @u =u @x @y 2 @ u a2 @x@y = @2u @t2 ¡ 2k @u ; (k constante) @t 4 =x+y 2 a2 ( @@xw2 + @2w @y 2 + @2w ) @z 2 = @w @t Estas ecuaciones son ecuaciones en derivadas parciales, donde u y w son funciones de varias variables. Se suelen utilizar u, v, w para la funci¶on y x, y, z, t, para las variables independientes ( las tres primeras, generalmente cuando el problema es un problema espacial, indicando las coordenadas de cada punto, y la variable t cuando la funci¶on depende del tiempo). En los primeros temas nos vamos a centrar en el estudio de ecuaciones diferenciales ordinarias. >C¶ omo surgen las ecuaciones diferenciales y d¶ onde? Aparecen en cualquier problema en el cual intervenga la variaci¶ on de una magnitud respecto a otras. En ese caso, la derivada representa la velocidad de dicha variaci¶ on. Ejemplos: ² El problema de determinar la trayectoria de un proyectil, cohete, sat¶elite o planeta. ² El problema de determinar la intensidad de corriente en un circuito el¶ectrico. ² El problema de la conducci¶on del calor en una barra o l¶amina. ² El problema de determinar las vibraciones de un cable o membrana. ² El estudio de la velocidad de descomposici¶ on de una substancia radiactiva o de crecimiento de una poblaci¶on. ² El estudio de la velocidad en una reacci¶on qu¶³mica. ² El problema de la determinaci¶on de curvas que posean determinadas propiedades geom¶etricas ( por ejemplo, ortogonales, isoclinas, isobaras, l¶³neas de fuerza, etc). Algunos ejemplos. Cuerpo en ca¶³da libre. Un cuerpo en el aire es atra¶³do verticalmente por la super¯cie terrestre con una fuerza proporcional a su masa con constante de proporcionalidad g. Al liberarlo se produce un movimiento cuya ecuaci¶on encontraremos. Denotando por m a la masa del cuerpo, por v a su velocidad, por a a su aceleraci¶on y por s al espacio recorrido, se tiene por la segunda ley de Newton que d2 s dv = m 2 = mg ; Fuerza = ma = m dt dt de donde se obtiene la ecuaci¶ on diferencial s00 (t) = g, que se puede plantear tambi¶en como v 0 (t) = g y que tiene por soluci¶on general v(t) = gt+C. Finalmente, empleando 5 que v(t) = s0 (t), podremos hallar la ecuaci¶on que rige el movimiento del cuerpo: s(t) = g2 t2 + Ct + D. Obs¶ervese el signi¯cado de la constante C como velocidad inicial en el instante t = 0 y D como el espacio recorrido hasta el instante inicial. As¶³mismo, de la ecuaci¶on para s(t) se observa que el espacio recorrido no depende de la masa m del cuerpo, por lo que cuerpos con masas distintas caer¶an desde el mismo punto en el mismo tiempo. Una observaci¶on importante respecto al planteamiento del problema es que hubiera resultado \ dif¶³cil" haber deducido por medio de experimentos f¶³sicos la ecuaci¶on para s(t) pues var¶³a de forma m¶as o menos \ complicada" con el tiempo t (es un polinomio de segundo grado), sin embargo la ecuaci¶on a(t) = g ser¶³a mucho m¶as f¶acil de observar en los experimentos, pues nos dice que la variaci¶ on de velocidad en el tiempo es siempre la misma (constante), es decir, en cada segundo se aumenta la velocidad siempre en la misma cantidad. Ca¶³da retardada. Sin necesidad de pensar demasiado observamos que el modelo anteriormente descrito, aunque es una aproximaci¶on a la realidad, en muchos casos no re°eja bien lo que realmente ocurre. Por ejemplo, no cae lo mismo un globo hinchado que una bola de hierro. Y pensando en el ejemplo del globo vemos que cuanto m¶as fuerte lo lanzamos m¶as resistencia parece oponer el aire, con lo cual podr¶³amos conjeturar que el aire ejerce una resistencia (contraria) al movimiento que es proporcional a la velocidad. Si as¶³ fuera, la ecuaci¶on diferencial que corresponde a tal idea es: Fuerza = ma = mv 0 = ms00 = mg ¡ Kv: M¶as adelante veremos c¶omo resolver este tipo de ecuaciones. De momento s¶olo diremos que su soluci¶on es: v(t) = ´ K m³ g ¡ Ce¡ m t ; K µ ¶ K m m s(t) = gt + Ce¡ m t + D; K K N¶otese que ahora el espacio recorrido s¶³ depende de la masa. Seg¶ un el planteamiento anterior, suponiendo K un valor ¯jo, >qu¶e cuerpo cree que caer¶³a antes al soltarlos desde igual altura, uno pesado o uno ligero? 1.2 Clasi¯caci¶ on de las ecuaciones diferenciales ordinarias. Las ecuaciones diferenciales ordinarias pueden clasi¯carse en cuanto a: 6 ² ORDEN: es el de la derivada (ordinaria o parcial) m¶as alta que aparece en la ecuaci¶on. Ejemplo: Las ecuaciones (1), (3) y (4) son de primer orden, la ecuaci¶on (2) es de orden 2. ² LINEALIDAD: las ecuaciones diferenciales ordinarias se clasi¯can tambi¶en en lineales y no lineales. 1.2.1 De¯nici¶ on.- Se llama ecuaci¶on diferencial lineal de orden n aquella que puede expresarse en la forma: an (x)y n) (x) + an¡1 (x)y n¡1) (x) + ¢ ¢ ¢ + a1 (x)y 0 (x) + a0 (x)y(x) = b(x) donde an , an¡1 , : : : , a1 , a0 y b son funciones que dependen s¶olo de x y an es una funci¶on no id¶enticamente nula. Ejemplos: Las ecuaciones (1), y (2) son lineales y las ecuaciones (3) y (4) no lo son. La raz¶on de que se llamen lineales se ver¶a m¶as adelante. 1.3 Soluciones de las ecuaciones diferenciales ordinarias Una ecuaci¶on diferencial ordinaria de orden n es una expresi¶on del tipo F (x; y; y 0 ; : : : ; y n) ) = 0 donde F es una funci¶on real de n+2 variables. Nuestro objetivo es encontrar soluciones para la ecuaci¶on. 1.3.1 De¯nici¶ on.- Se dice que una funci¶on f (x), de¯nida en un intervalo I de R, con derivada de orden n en I, es soluci¶on particular de la ecuaci¶on diferencial en I si sustitu¶³da en la ecuaci¶on reduce ¶esta a una identidad, es decir, si F (x; f (x); f 0 (x); : : : ; f n) (x)) = 0, 8x 2 I. El intervalo I puede ser de cualquier tipo. Las soluciones pueden venir expresadas de varias formas: ² Expl¶³citamente: la soluci¶on viene despejada como una funci¶on de x. (Por ejemplo, f (x) = 2x es soluci¶on de y 0 ¡ 2 = 0) 7 ² Impl¶³citamente: la soluci¶on viene de¯nida por una relaci¶on o igualdad. En este caso, la expresi¶on puede de¯nir una o varias soluciones de la ecuaci¶ on. Por ejem0 2 2 plo, x + y ¡ 25 = 0 de¯ne una soluci¶on impl¶³cita de x + yy = 0 en (¡5; 5): Las funciones que se de¯nen impl¶³citamente en esa expresi¶on son: p f1 (x) = 25 ¡ x2 p f2 (x) = ¡ 25 ¡ x2 Ambas son soluciones en (¡5; 5) (Por qu¶e no en un intervalo mayor?) ² De¯nidas a trozos: Por ejemplo, es f¶acil ver que cualquiera de las soluciones de la familia uniparam¶etrica y = Cx4 es soluci¶on de la ecuaci¶on xy 0 ¡ 4y = 0 y que la funci¶on de¯nida a trozos como y= ( ¡x4 si x < 0 x4 si x ¸ 0 tambi¶en es soluci¶on de la ecuaci¶on. (Obs¶ervese que esta soluci¶on no es un miembro de la familia uniparam¶etrica) 1.3.2 De¯nici¶ on.- Se denomina curva integral de la ecuaci¶ on diferencial a la gr¶a¯ca de una soluci¶on de la misma ( es decir, al conjunto f(x; f (x)) : x 2 Ig). En los ejemplos anteriores, la recta y = 2x es una curva integral, en el primero, y las p p semicircunferencias f(x; 25 ¡ x2 ) : x 2 (¡5; 5)g y f(x; ¡ 25 ¡ x2 ) : x 2 (¡5; 5)g son curvas integrales para el segundo ejemplo. 1.3.3 De¯nici¶ on.- Se llama soluci¶on general de la ecuaci¶on al conjunto de todas las soluciones particulares de la ecuaci¶on. Normalmente, dicha soluci¶on se puede representar por una expresi¶on que contiene tantos par¶ametros o constantes como indica el orden de la ecuaci¶ on diferencial. Esto no ocurre siempre: pueden existir soluciones que no queden inclu¶³das en esa expresi¶on param¶etrica. Dichas soluciones se llaman soluciones singulares. Ejemplo: La ecuaci¶on diferencial: y 0 ¡ xy 1=2 = 0 tiene esta familia param¶etrica de soluciones: y= à x2 +C 4 !2 La funci¶on y = 0 es tambi¶en una soluci¶on y no est¶a incluida en la expresi¶on anterior (es decir, no se obtiene para ning¶ un valor de C). Resolver una ecuaci¶on diferencial signi¯ca hallar su soluci¶on general. Ejemplos: 8 1. El ejemplo m¶as sencillo de ecuaci¶on diferencial es, si A es una constante, y 0 = A. La familia de primitivas de la funci¶on y 0 (x) es Ax + C, d¶onde C es una constante arbitraria. Esta expresi¶on, Ax + C es la soluci¶on general de la ecuaci¶on en R. Si damos un valor particular a C, por ejemplo C = 0, y(x) = Ax es una soluci¶on particular de la ecuaci¶on. En este caso, todas las soluciones particulares se obtienen dando valores a C. 2. Si h(x) es una funci¶on continua en R, la ecuaci¶on y 0 = h(x) tiene por soluci¶on general, en R: Z x y(x) = h(t)dt + C a donde C es una constante arbitraria y a un punto cualquiera de R. En efecto, el teorema fundamental del c¶alculo garantiza que y(x) es derivable, con derivada y 0 (x) = h(x). Todas las soluciones particulares de la ecuaci¶ on se obtienen dando valores a C. 1 Observaci¶ on: No toda ecuaci¶on diferencial tiene soluci¶on (es decir, existe una funci¶on real de variable real que veri¯que la ecuaci¶on). Por ejemplo: à !2 dy +1=0 dx à dy dx !2 + y2 + 4 = 0 no tienen soluciones que sean funciones reales. Esto u ¶ltimo plantea el problema siguiente: >cu¶ando una ecuaci¶on diferencial tiene soluci¶on? Se dar¶a una soluci¶on parcial a este problema m¶as adelante. El problema de Cauchy y los problemas de contorno. En la pr¶actica, muchos problemas no requieren encontrar la soluci¶on general de la ecuaci¶on, sino una o unas ciertas soluciones particulares. En esos casos el problema se plantea como una ecuaci¶on diferencial acompa~ nada de una o varias condiciones que ha de cumplir la funci¶on soluci¶on. Puesto que en una ecuaci¶on diferencial de orden n aparecen en la soluci¶on n constantes arbitrarias, el n¶ umero de condiciones acompa~ nantes no sobrepasar¶a a n. Dichas condiciones suelen ser: ² El valor de la ecuaci¶on y de algunas de sus derivadas en un punto ¯jo x0 , dando lugar a lo que llamamos Problema de Cauchy. ² El valor de la ecuaci¶on y de algunas de sus derivadas en dos o m¶as puntos, dando lugar a lo que llamamos Problema de contorno. 9 Por ejemplo: y 0 = 2x y(0) = 1 y 00 = 3x2 + 7 y 0 (1) = 2 y(1) = 3 ) 9 > > = > > ; son problemas de Cauchy. Y y 00 = 3x2 + 7 y(1) = 2 y(2) = 0 9 > > = > > ; es un problema de contorno. 1.4 Interpretaci¶ on de una ecuaci¶ on diferencial de primer orden. Una ecuaci¶on diferencial de primer orden se escribe de la forma F (x; y; y 0 ) = 0; (1.5) donde F es una funci¶on de tres variables. Normalmente se podr¶a despejar y 0 de la ecuaci¶on (1.5) en funci¶on de x y de y. De esta forma obtendremos otra escritura para la ecuaci¶on diferencial (1.5), a saber y 0 = f (x; y): (1.6) En este u ¶ltimo caso diremos que la ecuaci¶on diferencial est¶a escrita en forma normal o can¶onica. Frecuentemente la ecuaci¶on (1.6) se expresa como dy = f (x; y); dx (1.7) M (x; y)dx + N (x; y)dy = 0; (1.8) y tambi¶en como donde se entiende que la ecuaci¶on diferencial escrita en forma can¶onica asociada a (1.8) es : dy ¡M (x; y) = dx N (x; y) o bien dx ¡N (x; y) = ; dy M (x; y) (1.9) lo cual corresponde a de¯nir f (x; y) = ¡M (x; y)=N (x; y) en (1.6), o bien f (x; y) = ¡N (x; y)=M (x; y) respectivamente. Obs¶ervese que el nombre que se da a las variables viene dado muchas veces por la fuerza de la costumbre, y tanto la x como la y pueden ser la \variable independiente". 10 Por otra parte, una justi¯caci¶on rigurosa de esta interpretaci¶on pasa por la idea de que si f (x; y) 6 = 0, el teorema de la funci¶on impl¶³cita nos garantiza (bajo ciertas hip¶otesis que no precisamos), que localmente se puede despejar la x como funci¶on de la y y que la derivada de x(y) respecto de y es 1 1 dx = = dy dy f (x; y) dx Interpretaci¶ on geom¶ etrica A la vista de la ecuaci¶on (1.6) podemos esbozar una interpretaci¶on gr¶a¯ca, pensando que para cada punto (x; y) de R2 , inclu¶³do en el dominio de de¯nici¶on de f , aunque no conozcamos la funci¶on soluci¶on y(x) en un entorno de x que pasa por ese punto (x; y), s¶³ sabemos el valor de la pendiente, y 0 (x), pues y 0 (x) = f (x; y) y f es una funci¶on conocida. Por tanto, si ponemos en cada punto (x; y) del dominio de f un vector de componentes (1; f (x; y)), obtendremos un campo vectorial que re°ejar¶a en dichos puntos direcciones tangentes a soluciones que pasan por ellos. Nuestro subconsciente probablemente \ver¶a" trayectorias a seguir obligadas por las °echas (vectores), y no vectores aislados (la ¯gura responde a esta idea para la ecuaci¶on y 0 = y, cuyas soluciones son y = Cex ). Y, rec¶³procamente, si a cada punto (x; y) le asignamos un vector de direcci¶on (1; f (x; y)), entonces el campo vectorial est¶a asociado a la ecuaci¶on diferencial dy dx = f (x; y). En este contexto, >c¶omo se interpreta un problema de Cauchy?. En el caso de las ecuaciones diferenciales de primer orden, el problema de Cauchy toma la forma: ( y 0 = f (x; y) y(x0 ) = y0 11 Puesto que podemos considerar cada soluci¶on y = y(x) como una funci¶on que depende s¶olo de x, represent¶andola gr¶a¯camente corresponder¶a a una curva que pasa por (x0 ; y0 ) y que cumple que en cada uno de sus puntos (x; y) la pendiente de la recta tangente es f (x; y). Nos planteamos entonces >dado cualquier problema de Cauchy es posible encontrar una curva integral que cumpla estas condiciones? Hab¶³amos visto ya que no toda ecuaci¶on diferencial tiene soluci¶on. Tampoco todos los problemas de Cauchy la tienen, y si la tienen, puede haber dos o m¶ as. Esto es conveniente saberlo a la hora de resolverlos, porque en un problema concreto nos interesar¶a generalmente s¶olo una de las soluciones. Gr¶a¯camente, de lo que se trata es de encontrar entre todas las curvas soluci¶ on a aquella que pase por el punto (x0 ; y0 ) El siguiente teorema garantiza que para ciertos problemas hay siempre soluci¶on, y s¶olo una. 1.4.1 Teorema.- (Teorema de Picard) Dado el problema de Cauchy y 0 = f (x; y) y(x0 ) = y0 con f y @f continuas en un rect¶angulo [a; b] £ [c; d] que contiene en su interior a @y (x0 ; y0 ), entonces existe un intervalo I = (x0 ¡ h; x0 + h) ½ [a; b] y una u ¶nica funci¶on y = Á(x) de¯nida en el intervalo I, soluci¶on de dicho problema de Cauchy. 12 2 Observaci¶ on: Se trata solamente de una soluci¶ on \local", es decir, est¶a de¯nida en un entorno de x0 , que no tiene por qu¶e ser todo el intervalo [a; b]. (En ocasiones, como es el caso de las ecuaciones lineales s¶³ que podremos asegurarlo). Adem¶as, las hip¶otesis requeridas son condiciones su¯cientes (no necesarias). 13 Cap¶³tulo 2 M¶ etodos de resoluci¶ on para ecuaciones de primer orden 2.1 Separaci¶ on de variables. 2.1.1 De¯nici¶ on.- Se dice que una ecuaci¶on diferencial de la forma g(x) dy = ; dx h(y) (2.1) con h no id¶enticamente nula, es separable o que tiene variables separables (o separadas). ¶ n: La familia de funciones de¯nida impl¶³citamente por la ecuaci¶on resolucio Z h(y) dy = Z g(x) dx + C constituye la soluci¶on general de nuestra ecuaci¶on. ( C es una constante arbitraria). En efecto, escribamos la ecuaci¶on en la forma h(y) dy = g(x) dx (2.2) Llamando H(y) y G(x) a dos primitivas de las funciones h(y) y g(x) respectivamente, si la funci¶on y = f (x) es soluci¶on de 2.2 en el intervalo I, tendremos que h(f (x))f 0 (x) = g(x) 8x 2 I, por tanto dos primitivas cualesquiera de esta funci¶on diferir¶an en una constante, H(f (x)) es una primitiva del primer miembro, y se tendr¶a H(f (x)) = G(x) + C, o lo que es lo mismo y = f (x) veri¯ca la ecuaci¶on H(y) = G(x) + C. Rec¶³procamente, es inmediato que si y = f (x) viene de¯nida por la ecuaci¶on H(y) = G(x) + C 14 entonces es soluci¶on de la ecuaci¶on diferencial. Ejercicio: Pruebe que la soluci¶on de y 0 = y es y(x) = Cex . 3 Observaci¶ on: Al igual que ocurre con el c¶alculo de primitivas, no es necesario escribir Z Z h(y)dy + C1 = g(x)dx + C2 puesto que C1 y C2 son constantes arbitrarias y esto podemos escribirlo como Z h(y)dy = Z g(x)dx + (C2 ¡ C1 ) Una constante puede presentarse de diferentes formas: C, C 2 , eC , 1=C, log(C) ... En el proceso de separaci¶on de variables pueden perderse soluciones, o introducirse soluciones \¯cticias" 2.2 Ecuaciones homog¶ eneas. 2.2.1 De¯nici¶ on.- Una funci¶on f : A µ R2 7 ¡! R se dice que es homog¶enea de grado n si para cada x; y; t 2 R, tales que (x; y) 2 A y (tx; ty) 2 A, se tiene que f (tx; ty) = tn f (x; y). p Ejemplos: f1 (x; y) = x + y y f2 (x; y) = xy + y son homog¶eneas de grado uno. p p x x f3 (x; y) = y f4 (x; y) = ln son homog¶eneas de grado cero. f5 (x; y) = 2x + 3y y y 1 es homog¶enea de grado . 2 2.2.2 De¯nici¶ on.- A una ecuaci¶on diferencial de la forma M(x; y) dx + N (x; y) dy = 0 (2.3) tal que M (x; y) y N (x; y) son funciones homog¶eneas del mismo grado, se le llama ecuaci¶on diferencial homog¶enea. ¶ n: Por transformaci¶on mediante un cambio de variable a una de resolucio variables separadas. Teniendo en cuenta que si h(x; y) es homog¶enea de grado n se veri¯ca que à ! µ ¶ y x n n h(x; y) = x h 1; =y h ;1 : x y Podemos, entonces, escribir la ecuaci¶on diferencial (2.3) como µ ¶ y ¡M 1; x¶ µ y0 = y : N 1; x 15 (2.4) y se tiene que y = zx, y por tanto y 0 = xz 0 + z. Con x lo que la ecuaci¶on diferencial (2.4) se transforma en Ahora, haciendo z = z(x) = z0 = ¡ M(1; z) ¡z N (1; z) ; x (2.5) que ya es de variables separadas. La soluci¶on ¯nal se obtiene integrando y luego y sustituyendo z por (deshaciendo el cambio de variable). x 4 Observaci¶ on: El proceso de conversi¶on de la ecuaci¶on diferencial homog¶enea en una de variables separables descrito anteriormente es equivalente, desde un punto de vista operativo, a realizar la sustituci¶on dy = zdx + xdz; que se deduce de la igualdad y = zx. Entonces, la transformaci¶on de la ecuaci¶on (2.3) en una ecuaci¶on en las variables z y x, mediante un c¶alculo operacional elemental, conduce a la ecuaci¶on de variables separadas (2.5). Nota: La ecuaci¶on (2.3) tambi¶en puede resolverse con el cambio de variable x z = z(y) = . y Las dos opciones para resolver (2.3) sugieren el planteamiento de la pregunta: >qu¶e cambio de variable, z(x) = y=x o z(y) = x=y, ser¶a el que ocasione operaciones m¶as sencillas para encontrar la soluci¶on?. Aunque la respuesta a esta pregunta depende de la ecuaci¶on particular a resolver, generalmente si N (x; y) tiene una expresi¶on sencilla ser¶a adecuado el cambio z(x) = y=x, y si es M (x; y) el que tiene una expresi¶on simple es probable que el cambio z(y) = x=y sea el m¶as indicado. La raz¶on de esta idea proviene de la igualdad d(uv) = u dv + v du, con lo que m¶as vale complicar un \ poco" lo que es sencillo, que complicar m¶ as lo que ya es complicado. 2 2 Ejemplo: (x ¡ 2y ) dx + xy dy = 0 (homog¶enea de grado 2). N (x; y) = xy es m¶as sencillo que M (x; y) = x2 ¡ y 2 , por lo que con el cambio z(x) = y=x se tendr¶a: 0 y = 2 µ ¶2 y x y x ¡1 z2 ¡ 1 )z = : zx 0 Obteniendo, al integrar esta u ¶ltima ecuaci¶on diferencial de variables separadas y luego deshaciendo el cambio de variable, z 2 ¡ 1 = Cx2 ) y 2 = Cx4 + x2 : 16 Ejercicio: Resuelva la ecuaci¶on del ejemplo anterior empleando el cambio de variable z(y) = x=y. 2.3 Ecuaciones diferenciales exactas. 2.3.1 De¯nici¶ on.- Sean M(x; y) y N (x; y) funciones continuas en un abierto conexo 2 V µ R . Una ecuaci¶on diferencial del tipo M (x; y) dx + N (x; y) dy = 0; (2.6) se dice que es exacta en V , si el campo vectorial (M (x; y); N (x; y)) admite en V una funci¶on de potencial. ¶ n: resolucio Si la funci¶on de potencial es F , las soluciones de la ecuaci¶on diferencial exacta (2.6) son de la familia de curvas de¯nidas impl¶³citamente por la ecuaci¶on F (x; y) = C, donde C es una constante arbitraria. En efecto, supongamos que la funci¶on y = f (x); x 2 I es una curva de dicha familia, para un cierto valor de la constante C. Esto signi¯ca que F (x; f (x))¡C = 0 8x 2 I. Derivando con respecto de x, por la regla de la cadena, la funci¶on h(x) = F (x; f (x))¡ C, obtenemos D1 F (x; f (x)) + D2 F (x; f (x))f 0 (x) = 0 8x 2 I y como D1 F = M ; D2 F = N , tenemos que f (x) es soluci¶on de la ecuaci¶on diferencial 2.6. De manera rec¶³proca, si y = f (x) es soluci¶on de 2.6, deducimos que se veri¯ca D1 F (x; f (x)) + D2 F (x; f (x))f 0 (x) = 0 8x 2 I Como I es un intervalo, una primitiva del primer miembro ser¶a constante en el intervalo I; es decir, F (x; f (x)) = D 8x 2 I, y la funci¶on y = f (x) viene de¯nida impl¶³citamente por una una curva de la familia F (x; y) = C. Ejercicio: Aplique este resultado a la ecuaci¶on diferencial y dx + x dy = 0, para la que F (x; y) = xy. Dado que para la ecuaci¶on diferencial (2.6), la funci¶on F (x; y) no resultar¶a inmediata de las expresiones de M(x; y) y de N (x; y), se plantean dos preguntas: >Cu¶ando una ecuaci¶on diferencial es exacta?, y en caso de que la ecuaci¶ on diferencial sea exacta, >c¶omo obtener F (x; y)?. Como normalmente trabajaremos con ecuaciones del tipo (2.6) tales que M y N son 17 de clase 1 en el abierto V , recordemos que es condici¶on necesaria para que exista la funci¶on potencial que @N @M (x; y) = (x; y) @y @x 8x 2 V Esta condici¶on tambi¶en es su¯ciente cuando trabajamos en conjuntos V simplemente conexos, como es el caso muy frecuente de R2 . ¶ n: Recordemos dos caminos alternativos para encontrar la funci¶on de resolucio potencial, en caso de que exista. 1. Se puede obtener considerando la integral de l¶³nea desde cierto punto ¯jo a lo largo de cualquier camino contenido en el conjunto. En muchos casos, si es posible, se tomar¶a como origen el origen de coordenadas y como camino, segmentos paralelos a los ejes coordenados. @F = M (x; y), mediante la integraci¶on 2. Si existe una funci¶on F (x; y) tal que @x respecto de x, considerando y constante, obtenemos: F (x; y) = Z M(x; y) dx + f (y); (2.7) donde en f (y) ya englobamos la constante que produce el c¶alculo de la primitiva @F de M (x; y) respecto de x. Para determinar f (y) empleamos que = N (x; y), @y con lo que al calcular la parcial respecto de y en (2.7) se llega a que N (x; y) = @ @y µZ ¶ M (x; y) dx + f 0 (y): (2.8) Finalmente, al despejar f 0 (y) de (2.8), nos debe quedar una funci¶on que u ¶nicamente depende de la variable y, por lo que f (y) se calcula integrando dicha funci¶on respecto de y (de hecho ser¶a una nueva ecuaci¶on diferencial auxiliar de variables separadas). Una vez hallada la expresi¶on de f (y), se lleva a (2.7) y se obtiene la expresi¶on de F (x; y). Nota: Al igual que con las ecuaciones diferenciales homog¶eneas, hay un camino paralelo de soluci¶on que consiste en integrar primero respecto de y y derivar despu¶es respecto de x. L¶ogicamente debe elegirse un camino u otro en funci¶on de la simplicidad de los c¶alculos que haya que realizar, principalmente al hallar primitivas. 5 Observaci¶ on: Como ya se ha indicado, la soluci¶on de la ecuaci¶on exacta se expresa como F (x; y) = C, para C constante arbitraria, y no simplemente como 18 F (x; y), pues F (x; y) es la expresi¶on de una funci¶on de dos variables (que no puede ser soluci¶on de ninguna ecuaci¶on diferencial). En cambio, F (x; y) = C, expresa en forma impl¶³cita que y es funci¶on de x, o que x es funci¶on de y, lo cual de¯ne una funci¶on (o varias) de una u ¶nica variable que es perfectamente coherente con el concepto de soluci¶on de una ecuaci¶on diferencial. Ejercicio: Compruebe que son exactas y resuelva las ecuaciones diferenciales siguientes: a) (y ¡ x2 ) dx + (x + y 3 ) dy = 0: b) (x3 + xy 2 ) dx + (x2 y + y 3 ) dy = 0: Factores integrantes. En ocasiones una ecuaci¶on diferencial del tipo M (x; y) dx + N (x; y) dy = 0 no exacta puede convertirse en exacta multiplic¶andola por una funci¶on adecuada. Por ejemplo, y dx ¡ x dy = 0 no es exacta, pero tras multiplicarla por y ¡2 , s¶³ lo ser¶a. 2.3.2 De¯nici¶ on.- Una funci¶on ¹(x; y) de¯nida en un abierto V µ R2 continua y no id¶enticamente nula se dice que es un factor integrante de la ecuaci¶on diferencial M (x; y) dx + N (x; y) dy = 0, si la ecuaci¶on diferencial ¹(x; y)M(x; y) dx + ¹(x; y)N (x; y) dy = 0 es exacta. 2.3.3 Teorema.- Sean M (x; y) y N (x; y) dos funciones con parciales continuas en un abierto simplemente conexo V contenido en R2 . Una funci¶on ¹(x; y), no id¶enticamente nula y con parciales continuas en V , es un factor integrante de la ecuaci¶on diferencial M (x; y) dx + N (x; y) dy = 0 si, y s¶olo si, à @M @N ¹(x; y) ¡ @y @x ! =N @¹ @¹ ¡M ; @x @y (2.9) para todo (x; y) 2 V . Ejercicio: Demuestre el teorema anterior directamente a partir de la de¯nici¶on 2.3.2 y de la condici¶on necesaria para la existencia de funci¶on potencial. 6 Observaci¶ on: La ecuaci¶on (2.9) constituye un problema de ecuaciones en derivadas parciales, en general mucho m¶as dif¶³cil de resolver que la propia ecuaci¶ on diferencial original. Sin embargo en algunos casos ser¶a u ¶til, por ejemplo, en situaciones del tipo que se detallar¶a a continuaci¶on. Nota: Para simpli¯car la notaci¶on emplearemos x e y como sub¶³ndices, para indicar las respectivas parciales de una funci¶on respecto de x e y. 19 Factores integrantes que dependen s¶ olo de x. Si existe un factor integrante ¹(x; y) que depende s¶olo de x, es decir, ¹(x; y) = ¹(x), @¹ @¹ entonces ¹y = = 0 y ¹x = = ¹0 , por lo que (2.9) se puede escribir como @y @x (ln ¹)0 = My ¡ Nx : N (2.10) Como el miembro de la izquierda en (2.10) es s¶olo funci¶on de x por hip¶otesis, entonces, el miembro de la derecha en (2.10) tambi¶en ser¶a funci¶on u ¶nicamente de x, as¶³ que, con la notaci¶on f (x) = My ¡ Nx ; N (2.11) se tendr¶a que ¹(x) = e R f (x)dx : (2.12) Por otra Rparte se puede probar que si MyN¡Nx es una funci¶on s¶olo de x, f (x), entonces ¹(x) = e f (x)dx es un factor integrante. Ejemplo: Para la ecuaci¶on y dx ¡ x dy = 0, se tiene que My ¡ Nx ¡2 = ; N x que es s¶olo funci¶on de x. Por ello R ¡2 ¹(x; y) = ¹(x) = e x dx = 1 x2 es un factor integrante para la ecuaci¶on dada. La constante arbitraria C la hemos tomado C = 0. En general las constantes las tomaremos de forma que el factor integrante resulte lo m¶as simpli¯cado posible (es obvio que nos basta con encontrar uno). 7 Observaci¶ on: Una vez que a una ecuaci¶on diferencial la multiplicamos por un factor integrante, tenemos ya una ecuaci¶on diferencial exacta. Se espera que las soluciones de esta nueva ecuaci¶ on sean tambi¶en soluciones de la ecuaci¶on de partida. Un caso en el que esto est¶ a garantizado es cuando ¹(x; y) 6 =0 para todo (x; y) 2 V , pues entonces de: ¹(x; y)[M(x; y)dx + N (x; y)dy] = 0 se deduce que M (x; y)dx + N (x; y)dy = 0. Si ¹(x; y) se anula en algunos puntos de V , pueden estarse a~ nadiendo soluciones a la ecuaci¶on diferencial. Tambi¶en puede ocurrir que ciertas soluciones de la ecuaci¶ on de partida se \pierdan" al multiplicar por el factor integrante. Veremos unos ejemplos: 20 1. La ecuaci¶on y(2y 2 ¡ 3x2 )dx + 2x3 dy = 0 no es exacta y admite como factor integrante ¹(x; y) = y13 . La familia de soluciones de la nueva ecuaci¶on es : 2x ¡ x3 =C y2 que no incluye la soluci¶on y = 0 de la ecuaci¶on de partida. 2 2. La ecuaci¶on (x + y)dx + ( x2y + 2x)dy = 0 no es exacta y admite como factor integrante ¹(x; y) = y. La familia de soluciones de la nueva ecuaci¶on es: yx2 + y2x = C 2 Se observa que y = 0 est¶a inclu¶³da en esta familia de soluciones, pero sin embargo no es soluci¶on de la ecuaci¶on de partida. 2.4 Ecuaciones lineales de primer orden. 2.4.1 De¯nici¶ on.- Una ecuaci¶on diferencial de la forma y 0 + P (x)y = Q(x) (2.13) se le llama ecuaci¶on diferencial lineal de primer orden. Nota: Habitualmente se exige que P (x) y Q(x) sean funciones continuas en un intervalo I. De esta forma se tiene garant¶³a de existencia y unicidad globales de las soluciones para toda condici¶on inicial y(x0 ) = y0 , con x0 2 I (ver teorema de existencia y unicidad). Las ecuaciones diferenciales lineales aparecen frecuentemente en la pr¶actica. En numerosas ocasiones modelos complicados se aproximan por modelos lineales, porque su estudio es m¶as sencillo y porque se tiene la esperanza de que la soluci¶on a la ecuaci¶on lineal aproxime a la soluci¶on del problema original. Por ejemplo, si en el problema y 0 = f (x; y), con y(x0 ) = y0 , la funci¶on f (x; y) resulta ser muy complicada, podemos aproximarla por su desarrollo de Taylor de primer orden en un entorno del punto (x0 ; y0 ). Con ello obtendr¶³amos el problema 8 > < y0 > : = f (x0 ; y0 ) + (x ¡ x0 ) @f @f (x0 ; y0 ) + (y ¡ y0 ) (x0 ; y0 ) @x @y y(x0 ) = y0 ; (2.14) que es \ parecido" al inicial, pero mucho m¶as sencillo, al tener una ecuaci¶on diferencial lineal de primer orden. 21 ¶ n: Se deja como ejercicio comprobar que las ecuaciones diferenciales resolucio lineales poseen un factor integrante ¹ = ¹(x) que depende s¶olo de x. La forma de conseguir la soluci¶onR es, por tanto, multiplicar los dos miembros de la expresi¶on (2.13) por el t¶ermino e P (x) dx , que es un factor integrante. Con ello se consigue la ecuaci¶on R d ³ R P (x) dx ´ ye = e P (x) dx Q(x) ; dx que es una ecuaci¶on diferencial cuya soluci¶on se obtiene f¶acilmente mediante una primitiva. Finalmente se recupera y(x) despejando. Observemos que, en este caso, el factor integrante es continuo y no nulo en el conjunto donde lo sean P (x) y Q(x). Por tanto, todas las soluciones de la ecuaci¶on exacta son soluciones de la ecuaci¶on de partida. Nota: Obs¶ervese que en la ecuaci¶on diferencial (2.13) y 0 tiene por coe¯ciente un 1, por lo que para resolver una ecuaci¶on diferencial lineal del tipo R(x)y 0 + P (x)y = Q(x), antes de aplicar el m¶etodo de resoluci¶on es preciso dividir la ecuaci¶on dada por R(x), con lo que habr¶a que ser cautos con los intervalos de de¯nici¶on de las funciones resultantes. Ecuaci¶ on de Bernouilli. Las ecuaciones de Bernouilli responden a la forma general: y 0 + P (x)y = Q(x)y n (2.15) para n 6 =0yn6 = 1 (si n = 0 o¶ n = 1 la ecuaci¶on diferencial es directamente lineal). Si en (2.15) dividimos ambos miembros de la igualdad por y n , \ salta a la vista" el cambio de variable 1 w(x) = : (y(x))n¡1 Con este cambio se tiene que w0 = (1 ¡ n)y ¡n y 0 y sustituyendo en (2.15) se llega a la ecuaci¶on diferencial lineal w0 + P (x)w = Q(x): 1¡n Finalmente se resuelve esta u ¶ltima ecuaci¶on diferencial lineal y posteriormente se deshace el cambio de variable. 8 Observaci¶ on: Se~ nalemos que en el m¶etodo de soluci¶on indicado para la ecuaci¶on diferencial (2.15) en cierto momento se divide por y n por lo que, si n > 0, habr¶a que a~ nadir la soluci¶on y ´ 0 de la ecuaci¶on diferencial original, que hemos \perdido". Ejercicio: Pruebe que y ´ 0 y 1 = y 2 (Cx2 ¡ x4 ) proporcionan las soluciones de la ecuaci¶on diferencial xy 0 + y = x4 y 3 . 22 2.5 Curvas ortogonales. Hasta ahora hemos visto que la soluci¶on de una ecuaci¶on diferencial de primer orden se suele poder expresar como F (x; y; C) = 0, donde C es una constante arbitraria. La ecuaci¶on F (x; y; C) = 0 proporciona para cada valor de C una curva o trayectoria en el plano XY tal que en cada punto de la curva se satisface la relaci¶ on dada por la ecuaci¶on diferencial entre el valor de la abscisa x, la ordenada y y la pendiente y 0 (x) en dicha abscisa. El problema tambi¶en puede plantearse de forma inversa: dada una familia uniparam¶etrica de curvas F (x; y; C) = 0, encontrar una ecuaci¶on diferencial cuya soluci¶on nos permita recuperar la familia original. 2.5.1 Ejemplo.- La expresi¶on x2 + y 2 = C 2 es la familia uniparam¶etrica de circunferencias centradas en (0; 0). Derivando la ecuaci¶on de la familia respecto a x se tiene la ecuaci¶on diferencial de la familia: x + yy 0 = 0. En ocasiones la simple derivaci¶on respecto a x no es su¯ciente. 2.5.2 Ejemplo.- Para la familia de rectas y = Cx + 4, se tiene que y 0 = C depende de C y la soluci¶on de y 0 = C incluye a m¶as rectas que las de la familia original. Sin embargo, utilizando que, de la ecuaci¶on inicial de la familia de rectas, C = (y ¡4)=x, la ecuaci¶on diferencial es ahora y 0 = (y ¡ 4)=x. El proceso seguido en el ejemplo anterior es general. Dada una familia de curvas F (x; y; C) = 0, podemos obtener su ecuaci¶on diferencial siguiendo los pasos: 1. d F (x; y; C) = 0. dx 2. Eliminando C entre las ecuaciones: 8 d > > < > > : dx F (x; y; C) = 0 F (x; y; C) = 0 Entonces, la ecuaci¶on diferencial obtenida se denomina ecuaci¶on diferencial de la familia dada. 2.5.3 De¯nici¶ on.- Dos curvas C1 y C2 se dice que son ortogonales si lo son las rectas tangentes a cada una en cada punto donde se corten. 23 2.5.4 De¯nici¶ on.- Dos familias de curvas F (x; y; C) = 0 y G(x; y; C) = 0, para C constante arbitraria, se dice que son ortogonales si cada curva de la primera familia es ortogonal a todas las de la segunda. Por ejemplo, las familias de curvas y = mx y x2 + y 2 = c son dos familias de curvas ortogonales; la primera representa las rectas que pasan por el origen, y la segunda es la familia de circunferencias centradas en el origen. (V¶ease el siguiente dibujo). El problema que trataremos ahora es: Dada una familia de trayectorias F (x; y; C) = 0, encontrar una familia G(x; y; C) = 0, tal que las familias F (x; y; C) = 0 y G(x; y; C) = 0 sean ortogonales. 24 ¶trico: Dado un punto (x; y) de la familia F (x; y; C) = 0, planteamiento geome su recta tangente tendr¶a por vector director (1; y 0 ). Por lo tanto, para encontrar la familia ortogonal G(x; y; C) = 0, debemos plantear que en ese punto (x; y) la recta tangente tenga por vector director uno que sea ortogonal a (1; y 0 ), por ejemplo ¡1 ¡1 el vector (1; 0 ). (N¶otese que (1; y 0 ) y (1; 0 ) son ortogonales, pues su producto y y escalar es cero.) As¶³ pues, la soluci¶on al problema planteado se obtiene siguiendo los pasos: 1. Hallar la ecuaci¶on diferencial de la familia F (x; y; C) = 0. 2. Si la ecuaci¶on diferencial del apartado anterior es f (x; y; y 0 ) = 0, la ecuaci¶on ¡1 diferencial de la familia buscada ser¶a f (x; y; 0 ) = 0. y 3. Resolver la ecuaci¶ on diferencial f (x; y; ¡1 ) = 0. y0 Ejercicio: Halle la familia ortogonal a la familia de curvas dadas por la ecuaci¶on y = ln(tan x + C), con C constante arbitraria. 25 2.6 Ejercicios 1. Para ciertos valores de la constante n, la funci¶on enx es soluci¶on de la ecuaci¶on diferencial y 000 ¡ 3y 00 ¡ 4y 0 + 12y = 0. Determinar los valores de n. 2. Para ciertos valores de la constante n, la funci¶on xn es soluci¶on de la ecuaci¶on diferencial x3 y 000 + 2x2 y 00 ¡ 10xy 0 ¡ 8y = 0. Determinar los valores de n. 3. Demostrar que una ecuaci¶on diferencial de la forma y 0 = f (ax + by + c), con b6 = 0 se puede reducir a una ecuaci¶ on separable con el cambio u = ax + by + c. Aplicaci¶on: resolver 1¡x¡y y0 = x+y 4. Demostrar que una ecuaci¶on diferencial de la forma 0 y =f à ax + by + c Ax + By + C ! con aB ¡ bA 6 = 0 se puede reducir a una ecuaci¶on homog¶enea mediante el cambio ( x=u+h y =v+k donde h y k son constantes que se determinar¶an. 5. Resolver las siguientes ecuaciones diferenciales: (1 + x)y dx = ¡(1 ¡ y)x dy ydx ¡ (x + y)dy = 0 (2x3 + 4y)dx + (4x + y + 2)dy = 0 dy = y¡x dx y+x 2x2 ydy = (1 + x2 )dx dy + 2y = e¡x dx (1 + x2 )xdy = (1 + y 2 )dx dy 2y ¡ 1+x = (x + 1)3 dx p xdy ¡ ydx ¡ x2 ¡ y 2 dx = 0 (2x + 3y)dx + (y ¡ x)dy = 0 (x ¡ y ¡ 3) dx ¡ (x + y ¡ 1) dy = 0 xy 00 + 4y 0 = 0 dy dx =x+y = y(y 2 + 3x2 ) (x ¡ y) dx ¡ x dy = 0 dy + ytg(x)dx = 0 (x2 + y 2 )dx ¡ 2xydy = 0 dy ¡ y = xy 5 dx dy + xy = x3 dx p (a2 + y 2 )dx = 2x ax2 ¡ a2 dy y 0 + 4y = y 2 ( sen x + cos x) dy (x + 1) dx = x(1 + y 2 ) (x + y ¡ 6) dx + (y ¡ x) dy = 0 dy 2x3 dx 2 6. Considerar la ecuaci¶on diferencial (4x + 3y 2 )dx + 2xydy = 0. (a) Demostrar que no es exacta y encontrar un factor integrante de la forma xn para la ecuaci¶on. 26 (b) Resolver la ecuaci¶on. 7. Dada la ecuaci¶on M(x; y)dx + N (x; y)dy = 0, demostrar que si @N @x ¡ @M @y M = g(y) R es una funci¶on que depende s¶olo de y, entonces ¹(y) = exp( g(y)dy)) es un factor integrante. 8. Resolver la ecuaci¶ on (2xy 2 + x2 y ¡ y + 2x)dx + (2x2 y ¡ x3 ¡ x + 2y)dy = 0 encontrando un factor integrante de la forma ¹(xy). 9. Resolver la ecuaci¶ on (4xy 2 + 6y)dx + (5x2 y + 8x)dy = 0 encontrando un factor integrante de la forma xq y p . 10. Resolver (3 y 2 + 10 xy)dx + (5xy + 12x2 )dy = 0, sabiendo que tiene un factor integrante de la forma xm y n . 11. Resolver la ecuaci¶on (3x + 2y + y 2 ) dx + (x + 4xy + 5y 2 ) dy = 0 buscando un factor integrante de la forma ¹ = '(x + y 2 ). 12. Determinar el valor de n para que xn + y n = C sean las trayectorias ortogonales a la familia x y= 1 ¡ Dx 13. Una familia de curvas es autoortogonal si su familia de trayectorias ortogonales coincide con la propia familia. Demostrar que y 2 = 2Cx + C 2 es autoortogonal. 14. Demostrar que la ecuaci¶on diferencial xy 0 ¡3y = 0 tiene una familia de soluciones de la forma y = Cx3 . Demostrar que la funci¶on y= ( A x3 B x3 si si x·0 x¸0 es tambi¶en una soluci¶on. Existen entonces dos soluciones que pasan por el punto (1; 1). 27 15. Considere el problema de valor inicial: y 0 + P (x) y = x y(0) = 1 ) donde P (x) = ( 1 3 si si 0·x·2 x>2 (a) Encontrar la soluci¶on general para 0 · x · 2. (b) Determinar la constante de la soluci¶on obtenida en a) para la cual se satisface la condici¶on inicial. (c) Encontrar la soluci¶on general para x > 2. (d) Escoger la constante de la soluci¶on general obtenida en c) para que ambas soluciones coincidan para x = 2. De esta manera se obtiene una soluci¶on continua del problema de valor inicial. 16. Determinar una soluci¶on continua para el problema de valor inicial: y 0 + 2 y = Q(x) y(0) = 0 ) donde Q(x) = ( 2 ¡2 si si 0·x·3 x>3 17. Trace un esbozo de cada una de las siguientes familias de curvas, encuentre las trayectorias ortogonales y a~ na¶dalas al dibujo: (a) xy = C. (b) y = Cx2 . (c) y = Cex . (d) y 2 = 4C(x + C). 18. Encontrar las curvas que satisfagan cada una de las condiciones geom¶etricas siguientes: (a) La parte de la tangente cortada por los ejes est¶a bisecada por el punto de tangencia. (b) La proyecci¶on sobre el eje OX de una parte de la normal entre (x; y) y el eje OX tiene longitud 1. (c) La proyecci¶on sobre el eje OX de una parte de la tangente entre (x; y) y el eje OX tiene longitud 1. 19. Las leyes de Kircho® establecen que la suma de las ca¶³das de voltaje a trav¶es de cada uno de los elementos de un circuito es igual a la tensi¶ on E(t) aplicada. Las ca¶³das de voltaje a trav¶es de: Inductor 28 di d2 q L =L 2 dt dt Condensador Resistencia 1 q C iR = dq R dt donde L,C,y R son constantes, i(t) es la intensidad en cada instante y q(t) es la carga. (a) Un circuito en serie contiene una resistencia y un inductor. Determinar la intensidad si R = 10, L = 3H y la tensi¶on aplicada es de 100V . (b) Un circuito en serie contiene una resistencia y un condensador. Determinar la carga si R = 6 y C = 5F siendo el voltaje suministrado de 110V . 20. (Ley de Torricelli) Sup¶ongase que un tanque de agua tiene en el fondo un agujero de a¶rea a por el cual el agua est¶a saliendo. En condiciones ideales la velocidad con que el agua sale a trav¶es del agujero es la que adquirir¶³a una gota de agua al caer libremente desde la super¯cie del l¶³quido hasta el agujero. En condiciones reales, la velocidad es proporcional a la anterior (con una constante comprendida entre 0 y 1 y que generalmente es 0.6). Suponiendo condiciones ideales, si el tanque es hemisf¶erico, tiene un radio m¶aximo de 4m. y est¶a lleno de agua en t=0, y en ese momento se abre un agujero en el fondo de 1cm de di¶ametro, >cu¶anto tiempo tarda en vaciarse? 21. La ley del enfriamiento de Newton sostiene que la variaci¶on de la temperatura de un cuerpo es directamente proporcional a la diferencia de temperaturas del medio ambiente (supuesta constante) y la del cuerpo. Justamente antes del mediod¶³a el cuerpo de una v¶³ctima aparente de un homicidio se encuentra en un cuarto que se conserva a temperatura constante de 70 F. A mediod¶³a, la temperatura del cuerpo es de 80 F y a la 1 p.m. es de 75 F. Si la temperatura del cuerpo en el momento de la muerte es de 98.6 F y si el cuerpo se ha enfriado de acuerdo con la ley de Newton, >cu¶al fue la hora de la muerte? 22. La intensidad de la luz a una profundidad de x metros satisface la ecuaci¶on diferencial I 0 = (¡1:4)I; (a) >A qu¶e profundidad la intensidad es la mitad que en la super¯cie (donde x=0)? (b) >Cu¶al es la intensidad a una profundidad de 10 m.? (c) > A qu¶e profundidad la intensidad ser¶a la cent¶esima parte de la de la super¯cie?. 23. Un gran dep¶osito contiene 1000 l de salmuera en la que est¶an disueltos 200Kg de sal. A partir del instante t=0 se introduce agua pura a raz¶on de 3l/minuto 29 y la mezcla (que se mantiene homog¶enea) sale del dep¶osito a raz¶on de 2 l/min.. >Cu¶anto tiempo se necesitar¶a para reducir la cantidad de sal a la mitad? 24. Un dep¶osito est¶a lleno inicialmente con 100 m3 de agua salada, cuya concentraci¶on osito agua es de 1.5 Kg. de sal por m3 . Una tuber¶³a empieza a verter en este dep¶ 3 3 salada, de concentraci¶on 1 Kg de sal por m , a raz¶on de 2m =min, a la vez que por un ori¯cio del fondo sale la mezcla con la misma velocidad. Suponiendo que la mezcla se mantiene homog¶enea en cada instante, calcular la concentraci¶on de sal en el agua del dep¶osito al cabo de una hora. 25. La velocidad de disoluci¶on de un s¶olido es proporcional a la cantidad de s¶olido sin disolver y a la diferencia entre las concentraciones de saturaci¶on de la sustancia y a la que tiene en un instante t cualquiera. En un dep¶osito que contiene 60 Kg. de disolvente se introducen 10 Kg. de soluto y al cabo de 12 minutos se observa que la concentraci¶on es de 1 parte de soluto por 30 de disolvente. Determinar la cantidad de soluto que existe en la soluci¶on en un instante cualquiera t, si la concentraci¶on de saturaci¶on es de 1 parte de soluto en 3 de disolvente. ( Tomaremos como concentraci¶on la cantidad de kilogramos de soluto dividida entre los kilogramos de disolvente). 26. Se ha descubierto que una bola de naftalina que ten¶³a originalmente un radio de 1/4 de pulgada, tiene un radio de 1/8 pulgada al cabo de un mes. Suponiendo que se evapora a un ¶³ndice proporcional a su super¯cie, encuentre el radio en funci¶on del tiempo. >Despu¶es de cu¶antos meses desaparecer¶a por completo? 27. Un medicamento se inyecta en el °ujo sangu¶³neo de un paciente con una intensidad constante de r grs./seg. Simult¶aneamente la sustancia se elimina con una rapidez proporcional a la cantidad de sustancia x(t) presente en cada instante. Halle, y resuelva, la ecuaci¶on diferencial que rige la cantidad x(t). 30 Cap¶³tulo 3 Ecuaciones lineales de orden superior 3.1 Introducci¶ on. Teorema de existencia y unicidad. 3.1.1 De¯nici¶ on.- Se denomina ecuaci¶on diferencial lineal de segundo orden a la que puede escribirse en la forma y 00 + P (x)y 0 + Q(x)y = R(x) (3.1) donde supondremos que P(x), Q(x) y R(x) son funciones continuas en un cierto intervalo de los n¶ umeros reales. En general se denomina ecuaci¶on diferencial lineal de orden n a la que puede escribirse en la forma y n) + an¡1 (x)y n¡1) + ¢ ¢ ¢ + a1 (x)y 0 + a0 (x)y = R(x) (3.2) donde, como antes, supondremos que an¡1 (x); :::::; a1 (x); a0 (x) son funciones continuas en un cierto intervalo de los n¶ umeros reales. Observaciones: 1. Si en la ecuaci¶on diferencial 3.2 el coe¯ciente de y n) no es uno, sino una funci¶on continua en el mismo intervalo antes referenciado, supondremos siempre que tal funci¶on es no nula en todos los puntos de dicho intervalo. Bajo estas hip¶otesis siempre es posible poner la ecuaci¶on en la forma 3.2. 2. En este tema, la teor¶³a tiene una estructura ordenada y coherente, basada en principios simples del Algebra Lineal. Sin embargo, la resoluci¶on pr¶actica de 3.1 31 puede ser m¶as complicada de lo que parece a simple vista, y casos particulares de la misma constituyen temas completos de an¶alisis. Como ejemplos, se tienen: (1 ¡ x2 )y 00 ¡ 2xy 0 + p(p + 1)y = 0 x2 y 00 + xy 0 + (x2 ¡ p2 )y = 0 (ecuaci¶on de Legendre) (ecuaci¶on de Bessel) Cuando en 3.2 se veri¯ca R(x) = 0 se tiene entonces la ecuaci¶on diferencial y n) + an¡1 (x)y n¡1) + ::::: + a1 (x)y 0 + a0 (x)y = 0 (3.3) que se denomina ecuaci¶on homog¶enea asociada a la ecuaci¶on 3.2. 3.1.2 Teorema.- ( Teorema de existencia y unicidad para la ecuaci¶ on 3.2 ). Sean an¡1 (x); :::::; a0 (x) y R(x) funciones continuas en el intervalo [a; b]. Si x0 2 [a; b] umeros reales cualesquiera, entonces existe una u ¶nica y si y0 ; m1 ; m2 ; :::::; mn¡1 son n¶ funci¶on de clase n; y : [a; b] 7 ¡! R tal que: a) y(x) es soluci¶on de y n) + an¡1 (x)y n¡1) + ¢ ¢ ¢ + a1 (x)y 0 + a0 (x)y = R(x) en [a,b]. b) y(x0 ) = y0 , y 0 (x0 ) = m1 , y 00 (x0 ) = m2 ; : : : ; y n¡1) (x0 ) = mn¡1 . Observaciones: Bajo las hip¶otesis de este teorema: 1. Si x0 es un punto cualquiera del intervalo [a; b] y si la funci¶on y = y(x) es una soluci¶on en [a; b] de la ecuaci¶on 3.3 que veri¯ca las condiciones iniciales y(x0 ) = 0, y 0 (x0 ) = 0, y 00 (x0 ) = 0; : : : ; y n¡1) (x0 ) = 0. entonces y ´ 0 en [a; b]. 2. Si x0 es un punto cualquiera del intervalo [a; b], y si las funciones y = y1 (x), y = y2 (x) son soluciones en [a; b] de la ecuaci¶on 3.2 , y veri¯can las condiciones n¡1) iniciales y1 (x0 ) = y2 (x0 ) , y10 (x0 ) = y20 (x0 ), y1 00 (x0 ) = y2 00 (x0 ); : : : ; y1 (x0 ) = n¡1) y2 (x0 ), entonces y1 ´ y2 en [a; b]. Estructura de la soluci¶ on general. 3.1.3 Teorema.- Sean an¡1 (x); an¡2 (x); :::::; a0 (x) y R(x) funciones continuas en el intervalo [a; b], Yg la soluci¶on general de y n) + an¡1 (x)y n¡1) + ¢ ¢ ¢ + a1 (x)y 0 + a0 (x)y = R(x) o sea, el conjunto de todas las soluciones particulares de dicha ecuaci¶ on, yp una soluci¶on particular de esta ecuaci¶on, e Y0 la soluci¶on general de la ecuaci¶on homog¶enea asociada. Entonces se cumple Yg = yp + Y0 . Adem¶as, Y0 es un subespacio vectorial del espacio vectorial de todas las funciones reales de¯nidas en el intervalo [a,b], o sea, si y1 e y2 son soluciones de la ecuaci¶on homog¶enea asociada y si ®; ¯ son n¶ umeros reales cualesquiera, entonces ®y1 + ¯y2 es tambi¶en una soluci¶on de la ecuaci¶on homog¶enea. 32 3.2 Resoluci¶ on de la ecuaci¶ on homog¶ enea Independencia lineal 3.2.1 De¯nici¶ on.- Se dice que las funciones f1 (x); f2 (x); :::::; fn (x) de¯nidas en el intervalo [a,b], son linealmente independientes en dicho intervalo si la u ¶nica soluci¶on de la ecuaci¶on c1 f1 (x) + c2 f2 (x) + :::::: + cn fn (x) = 0 para todo x 2 [a; b] es c1 = c2 = :::::: = cn = 0. Un conjunto de funciones que no son linealmente independientes se denomina linealmente dependiente. Seg¶ un la de¯nici¶on dada, es f¶acil ver que dos funciones son linealmente dependientes si y s¶olo si una de las dos funciones es un m¶ ultiplo escalar de la otra. Por ejemplo f1 = sen x y f2 = 5 sen x son linealmente dependientes ya que c1 sin x + c2 (5 sin x) = 0 admite la soluci¶on no nula c1 = ¡5 y c2 = 1. Es interesante observar que dos funciones pueden ser linealmente independientes en un intervalo, y no serlo en otro. Por ejemplo f1 (x) = x y f2 (x) = jxj, son linealmente independientes en R y no lo son en fx=x > 0g. 3.2.2 De¯nici¶ on.- Sean y1 ; y2 ; :::::; yn funciones que admiten derivadas hasta el orden n ¡ 1 en el intervalo [a,b]. Se denomina wronskiano de y1 ; y2 ; :::::; yn a la funci¶on de¯nida en [a,b] por medio del determinante. 2 6 6 w(y1 ; y2 ; :::::; yn ) = det 6 6 6 4 y1 y10 .. . n¡1) y1 y2 y20 .. . ::: ::: ... n¡1) : : : ynn¡1) y2 yn yn0 .. . 3 7 7 7 7 7 5 3.2.3 Teorema.- Sean y1 ; y2 ; :::::; yn soluciones de la ecuaci¶on diferencial y n) + an¡1 (x)y n¡1) + ¢ ¢ ¢ + a1 (x)y 0 + a0 (x)y = 0 , en el intervalo [a,b]. Entonces es cierta una y s¶olo una de las proposiciones siguientes: a) w(y1 ; :::::; yn )(x) = 0 para todo x 2 [a; b]: b) w(y1 ; :::::; yn )(x) 6 = 0 para todo x 2 [a; b]: Demostraci¶on: Es obvio que s¶olo caben dos posibilidades, que las soluciones sean linealmente dependientes (en el intervalo [a; b]) o que no lo sean. 33 1. Si las funciones y1 ; y2 ; :::::; yn son linealmente dependientes, vamos a ver que w(y1 ; y2 ; :::::; yn ) ´ 0 en [a,b]. En efecto, supongamos que existe una combinaci¶on lineal c1 y1 (x) + c2 y2 (x) + : : : + cn yn (x) = 0 8x 2 [a; b] con coe¯cientes ci no todos nulos. Derivando n ¡ 1 veces, y considerando estas expresiones en el punto x0 , donde x0 es un punto cualquiera del intervalo, obtendremos 8 c1 y1 (x0 ) + c2 y2 (x0 ) + : : : + cn yn (x0 ) = 0 > > > > < c y 0 (x ) + c y 0 (x ) + : : : + c y 0 (x ) = 0 1 1 0 2 2 0 n n 0 > :::::::::::::::::::::::::::::::::::::::::: > > > : n¡1) n¡1) n¡1) c1 y1 (x0 ) + c2 y2 (x0 ) + : : : + cn yn (x0 ) = 0 ¶ Este es un sistema lineal y homog¶eneo en las inc¶ognitas ci , que admite una soluci¶on no trivial, c1 ; c2 ; : : : ; cn de donde se deduce que el determinante del sistema, que no es otro que el wronskiano en el punto x0 , es cero. 2. Si las soluciones y1 ; y2 ; :::::; yn son linealmente independientes, w(y1 ; y2 ; :::::; yn ) 6 = 0 en todos los puntos de [a,b]. En efecto, supongamos que para alg¶ un x0 de [a; b] se tiene que w(y1 ; y2 ; :::::; yn )(x0 ) = 0. Entonces el sistema 8 c1 y1 (x0 ) + c2 y2 (x0 ) + : : : + cn yn (x0 ) = 0 > > > > < c y 0 (x ) + c y 0 (x ) + : : : + c y 0 (x ) = 0 1 1 0 2 2 0 n n 0 > : : : : : : : : : : : : : : : : : : : : : : : : : : : : :::::::::::::: > > > : n¡1) n¡1) n¡1) c1 y1 (x0 ) + c2 y2 (x0 ) + : : : + cn yn (x0 ) = 0 admite soluci¶on no trivial. Sea ¶esta C1 ; C2 ; : : : ; Cn . Si consideramos la funci¶on Y (x) = C1 y1 (x) + C2 y2 (x) + : : : + Cn yn (x), tenemos una soluci¶on de la ecuaci¶on diferencial homog¶enea que veri¯ca las condiciones iniciales: Y (x0 ) = 0 Y 0 (x0 ) = 0 : : : Y n¡1) = 0 y por la observaci¶on 1. de 3.1.2, se tendr¶a Y ´ 0, lo que contradice la hip¶otesis de independencia lineal. 3.2.4 Corolario.- Sean y1 ; y2 ; :::::; yn soluciones de la ecuaci¶on diferencial y n) + an¡1 (x)y n¡1) + ¢ ¢ ¢ + a1 (x)y 0 + a0 (x)y = 0 en el intervalo [a,b]. Las soluciones y1 ; y2 ; :::::; yn son linealmente independientes si y solamente si su wronskiano no se anula en alg¶ un punto de [a; b]: 34 3.2.5 Teorema.- Para la ecuaci¶on diferencial y n) + an¡1 (x)y n¡1) + ::::: + a1 (x)y 0 + a0 (x)y = 0 se cumple: a) Admite n soluciones linealmente independientes. b) dim Y0 = n (Y0 es el e.v. de las soluciones de la ecuaci¶on) c) Si y1 ; y2 ; :::::; yn son soluciones linealmente independientes, entonces y(x) = c1 y1 (x)+ ::::: + cn yn (x) es la soluci¶on general de (3.4). Demostraci¶on: Tomemos un x0 2 [a; b] arbitrario. a) Basta aplicar la proposici¶on relativa a la existencia y unicidad (3.1.2) a los problemas de condiciones iniciales: y(x0 ) = 1 y 0 (x0 ) = 0 y 00 (x0 ) = 0 : : : y n¡1) = 0 y(x0 ) = 0 y 0 (x0 ) = 1 y 00 (x0 ) = 0 : : : y n¡1) = 0 ¢¢¢¢¢¢¢¢¢¢¢¢¢¢¢¢¢¢ y(x0 ) = 0 y 0 (x0 ) = 0 y 00 (x0 ) = 0 : : : y n¡1) = 1 Se obtienen as¶³, n soluciones de la ecuaci¶on, y1 ; y2 ; : : : ; yn , cuyo wronskiano es distinto de cero en el punto x0 y por tanto, son linealmente independientes en el intervalo [a; b]. (Recu¶erdese (3.2.4).) Para probar b), basta probar que cualquier soluci¶ on de la ecuaci¶on, es combinaci¶on lineal de las as¶³ constru¶³das. En efecto sea Y (x) una soluci¶on cualquiera, y consideremos los n¶ umeros ci = Y i¡1) (x0 ), para i = 1; : : : ; n. Construyendo la funci¶on y(x) = c1 y1 (x) + c2 y2 (x) + ¢ ¢ ¢ + cn yn (x), obtenemos que y(x0 ) y 0 (x0 ) .. . = c1 = Y (x0 ) = c2 = Y 0 (x0 ) .. .. . . n¡1 n¡1 (x0 ) y (x0 ) = cn = Y y por la observaci¶on 2. de 3.1.2 que Y (x) ´ y(x) 8x 2 [a; b] c) Se deduce de las propiedades de espacio vectorial. Como consecuencia de los Teoremas anteriores se tiene el siguiente resultado: 2 3.2.6 Proposici¶ on.- Si yp es una soluci¶on particular de la ecuaci¶on diferencial no homog¶enea y n) + an¡1 (x)y n¡1) + ::::: + a1 (x)y 0 + a0 (x)y = R(x) e y1 ; y2 ; :::::; yn son soluciones linealmente independientes de la ecuaci¶ on diferencial homog¶enea asociada, entonces y(x) = yp (x) + c1 y1 (x) + ::::: + cn yn (x) es la soluci¶on general de y n) + an¡1 (x)y n¡1) + ::::: + a1 (x)y 0 + a0 (x)y = R(x). 35 Insistiendo en la idea, para resolver una ecuaci¶on no homog¶enea de orden n, basta encontrar n soluciones linealmente independientes de la ecuaci¶on homog¶enea asociada, y una soluci¶on particular de la no homog¶enea. La ecuaci¶ on homog¶ enea de segundo orden. Utilizaci¶ on de una soluci¶ on conocida para encontrar la otra. 3.2.7 Teorema.- Si y1 (x) es una soluci¶on de la ecuaci¶on diferencial homog¶enea y 00 + P (x)y 0 + Q(x)y = 0 en el intervalo [a,b] y adem¶as se cumple que y1 (x) 6 = 0 en dicho intervalo, entonces existe una funci¶on v = v(x) tal que: 1. y2 (x) = v(x)y1 (x) es tambi¶en una soluci¶on de y 00 + P (x)y 0 + Q(x)y = 0 2. y1 (x) e y2 (x) son linealmente independientes. La ecuaci¶ on homog¶ enea de segundo orden con coe¯cientes constantes. Si en la ecuaci¶on diferencial homog¶enea y 00 +P (x)y 0 +Q(x)y = 0, las funciones P (x) y Q(x) son respectivamente las constantes p y q, se tiene entonces la ecuaci¶on: y 00 + py 0 + qy = 0 (3.4) denominada ecuaci¶on diferencial homog¶enea con coe¯cientes constantes. La ecuaci¶on algebraica m2 + pm + q = 0 [e.c.] se denomina ecuaci¶on caracter¶³stica asociada a la misma. Adelantando una t¶ecnica que emplearemos m¶as adelante, observamos que la derivada de la funci¶on y = emx es un m¶ ultiplo de s¶³ misma y = memx , y por tanto esta funci¶on ser¶a soluci¶on de la ecuaci¶on 3.4, si y solamente si m es ra¶³z de la ecuaci¶on caracter¶³stica. Por tanto si disponemos de dos ra¶³ces diferentes, tendremos dos soluciones de la ecuaci¶on que son linealmente independientes, como se puede comprobar f¶acilmente. En el caso de que la ecuaci¶on caracter¶³stica tenga s¶olo una ra¶³z doble, utilizaremos la ya disponible y = emx , para encontrar otra con el m¶etodo sugerido con anterioridad. La nueva soluci¶on ser¶a xemx . En el caso de que la ecuaci¶on caracter¶³stica posea ra¶³ces complejas, ser¶an conjugadas, a + bi y a ¡ bi y como cualquier combinaci¶on lineal de soluciones ( a¶ un con coe¯cientes complejos ) es soluci¶on, obtenemos las soluciones e(a+bi)x + e(a¡bi)x = eax cos bx 2 e(a+bi)x ¡ e(a¡bi)x = eax sen bx 2i Por tanto, podemos enunciar: 36 3.2.8 Teorema.- Dada la ecuaci¶on diferencial de coe¯cientes constantes, 3.4, en la resoluci¶on de la ecuaci¶on caracter¶³stica pueden darse diferentes situaciones: Caso I ( ra¶³ces reales diferentes ): Si m1 6 = m2 son ra¶³ces reales distintas de la ecuaci¶on caracter¶³stica [e.c.], entonces la soluci¶on general de 3.4 es: y(x) = c1 em1 x + c2 em2 x donde c1 ; c2 son constantes arbitrarias. Caso II ( ra¶³ces reales iguales ): Si m1 = m2 son ra¶³ces reales iguales de la ecuaci¶on caracter¶³stica [e.c.], entonces la soluci¶on general de 3.4 es: y(x) = c1 emx + c2 xemx = emx (c1 + c2 x) donde m = m1 = m2 = ¡ p2 y c1 ; c2 son constantes arbitrarias. Caso III ( Ra¶³ces complejas conjugadas ): Si m1 = a + ib y m2 = a ¡ ib, con b 6 = 0, son ra¶³ces complejas conjugadas de la ecuaci¶on caracter¶³stica [e.c.], entonces la soluci¶on general de 3.4 es: y(x) = c1 eax cos bx + c2 eax sen bx donde c1 ; c2 son constantes arbitrarias. 3.3 La ecuaci¶ on homog¶ enea de orden n, de coe¯cientes constantes. Si en la ecuaci¶on diferencial homog¶enea 3.3 todas las funciones ai (x) son constantes, se tiene la ecuaci¶on diferencial y n) + an¡1 y n¡1) + :::::: + a1 y 0 + a0 y = 0 (3.5) donde ahora las ai representan constantes y no funciones. La ecuaci¶on algebraica mn + an¡1 mn¡1 + :::::: + a1 m + a0 = 0 (3.6) se denomina ecuaci¶on caracter¶³stica asociada a la misma. En este caso la soluci¶on general se obtiene siguiendo un procedimiento similar al usado en la ecuaci¶on diferencial de segundo orden, es decir, empezamos hallando las n ra¶³ces de la ecuaci¶on caracter¶³stica y a continuaci¶on, bas¶andonos en dichas 37 ra¶³ces, formamos un conjunto linealmente independiente de n soluciones. La principal diferencia es que, en el caso de ecuaciones de orden tres o superior, las ra¶³ces de la ecuaci¶on caracter¶³stica pueden tener multiplicidad mayor que 2. Cuando esto ocurre formamos soluciones adicionales ( linealmente independientes) multiplicando por potencias crecientes de x. 3.3.1 Teorema.- Dada la ecuaci¶on diferencial de coe¯cientes constantes, 3.5, en la resoluci¶on de la ecuaci¶on caracter¶³stica pueden darse diferentes situaciones: Caso I ( Ra¶³ces reales diferentes ): Si la ecuaci¶on caracter¶³stica 3.6 asociada a la ecuaci¶on diferencial lineal homog¶enea con coe¯cientes constantes 3.5 tiene n ra¶³ces reales diferentes m1 ; m2 ; :::::; mn , entonces la soluci¶on general de 3.5 es: y = c1 em1 x + c2 em2 x + :::::: + cn emn x donde c1 ; c2 ; :::::; cn son constantes arbitrarias. Caso II ( Ra¶³ces reales repetidas ): Si la ecuaci¶on caracter¶³stica 3.6 asociada a la ecuaci¶on diferencial lineal homog¶enea con coe¯cientes constantes 3.5 tiene la ra¶³z real m que se repite k veces, entonces la parte de la soluci¶on general de 3.5 correspondiente a esta ra¶³z repetida es (c1 + c2 x + ::::: + ck xk¡1 )emx donde c1 ; c2 ; :::::; cn son constantes arbitrarias. Caso III ( Ra¶³ces complejas conjugadas ) Si la ecuaci¶on caracter¶³stica asociada a la ecuaci¶on diferencial lineal homog¶enea con coe¯cientes constantes 3.5 tiene las ra¶³ces a + ib y a ¡ ib que se repiten k veces, entonces la parte de la soluci¶on general de 3.5 correspondiente a estas ra¶³ces repetidas es eax [(c1 + c2 x + ::::: + ck xk¡1 ) sen bx + (ck+1 + ck+2 x + ::::: + c2k xk¡1 ) cos bx] donde c1 ; c2 ; :::::; cn son constantes arbitrarias. En los casos II) y III) sumando las partes correspondientes a todas las ra¶³ces se tiene la soluci¶on general de 3.5. 3.4 La ecuaci¶ on no homog¶ enea El m¶ etodo de reducci¶ on de orden Para ecuaciones diferenciales de segundo orden (aunque se extiende a ecuaciones de orden n ): y 00 + P (x)y 0 + Q(x)y = R(x) 38 se parte de una soluci¶on particular y1 (x) de la ecuaci¶on homog¶enea asociada, y conjeturamos que la soluci¶on general de dicha ecuaci¶on es de la forma y(x) = v(x)y1 (x). Derivando, substituyendo y simpli¯cando, obtenemos: v 00 y1 + v 0 (2y10 + P (x)y1 ) = R(x) ecuaci¶on lineal de primer orden en v 0 que, resuelta y tras la correspondiente integraci¶on nos da v(x) ( que va a depender de 2 constantes arbitrarias), y por tanto la soluci¶on general y(x). El m¶ etodo de variaci¶ on de los par¶ ametros. Es un m¶etodo para encontrar una soluci¶on particular de 3.2 cuando se conoce la soluci¶on general de la ecuaci¶on homog¶enea asociada 3.3. Si esta soluci¶on la expresamos en la forma. Y0 = c1 y1 (x) + c2 y2 (x) + ::::: + cn yn (x) el m¶etodo consiste en substituir las constantes c1 ; c2 ; :::::; cn por funciones convenientes v1 (x); v2 (x); :::::; vn (x) para que la funci¶on yp = v1 (x)y1 (x) + v2 (x)y2 (x) + ::::: + vn (x)yn (x) sea una soluci¶on particular de 3.2. En cada sucesiva derivada (hasta la n ¡ 1) de la funci¶on yp , la combinaci¶on lineal resultante de funciones v10 (x); v20 (x); :::::; vn0 (x) se iguala a cero, obteni¶endose un sistema de n ecuaciones en donde las inc¶ognitas son las funciones v10 (x); v20 (x); :::::; vn0 (x), y cuya matriz (del sistema) tiene por determinante al wronskiano w(y1 ; y2 ; :::::; yn ) 6 = 0. El m¶ etodo de coe¯cientes indeterminados. Como en el caso anterior es un m¶etodo para encontrar una soluci¶on particular de 3.2 cuando se conoce la soluci¶on general de la ecuaci¶on homog¶enea 3.3. Se aplica, generalmente, cuando los coe¯cientes de 3.2 son constantes y el segundo miembro R(x) est¶a formada por t¶erminos cuyas derivadas sucesivas llegan en alg¶ un momento a anularse o a repetirse salvo un factor constante; en concreto, funciones polin¶omicas, exponenciales, senos, cosenos, o bien combinaciones aditivas o factoriales de las mismas. En s¶³ntesis puede decirse que el m¶etodo consiste en conjeturar la forma de la soluci¶on particular de modo que incluya un n¶ umero su¯ciente de coe¯cientes indeterminados que puedan ajustarse a las circunstancias en cada caso. Por ejemplo, para la ecuaci¶on de segundo orden: y 00 + py 0 + qy = R(x) Caso 1. R(x) = b0 + b1 x + ::::: + bm xm 39 1. Si q 6 = 0 se conjetura que yp = a0 + a1 x + ::::: + am xm 2. Si q = 0 se hace y 0 = u; y 00 = u 0 y se procede como en el caso anterior para la ecuaci¶on reducida de primer orden resultante. O tambi¶en, equivalentemente, se pone yp = x(a0 + a1 x + ::::: + am xm ) Caso 2. R(x) = Keax 1. Si a no es ra¶³z de la ecuaci¶on caracter¶³stica, se conjetura que yp = Aeax . 2. Si a es ra¶³z simple de la ecuaci¶on caracter¶³stica, se conjetura que yp = Axeax . 3. Si a es ra¶³z doble de la ecuaci¶on caracter¶³stica, se conjetura que yp = Ax2 eax . Caso 3. R(x) = M cos bx + N sen bx Se conjetura que yp = A cos bx + B sen bx, siempre y cuando esta funci¶on no sea soluci¶on de la ecuaci¶on homogenea asociada. En caso contrario, se pone yp = x(A cos bx + B sen bx). Casos mixtos aditivos. Se procede teniendo en cuenta el siguiente resultado, de demostraci¶ on inmediata: Si y1 (x) e y2 (x) son soluciones respectivas de las ecuaciones y 00 + P (x)y 0 + Q(x)y = R1 (x) y 00 + P (x)y 0 + Q(x)y = R2 (x) entonces y = y1 (x) + y2 (x) es una soluci¶on de y 00 + P (x)y 0 + Q(x)y = R1 (x) + R2 (x) Casos mixtos factoriales. Si R(x) = eax (b0 + b1 x + ::::: + bm xm )(M cos bx + N sen bx), se conjetura que yp = eax (a0 + a1 x + ::::: + am xm )(A cos bx + B sen bx), salvo cuando eax es ra¶³z de la ecuaci¶on homog¶enea asociada, ya que entonces se procede como en los casos anteriores, a~ nadiendo factores crecientes de x, hasta conseguir que no ocurra esto. 40 3.5 Ejercicios 1. Eliminando las constantes c1 y c2 , encontrar la ecuaci¶on diferencial de cada una de las familias de curvas siguientes: (a) y = c1 x + c2 x2 (b) y = c1 ekx + c2 e¡kx (c) y = c1 sen kx + c2 cos kx SOL.: a) x2 y 00 ¡ 2xy 0 + 2y = 0; b) y 00 ¡ k 2 y = 0; c) y 00 + k 2 y = 0: 2. Veri¯car que la funci¶on y = c1 x¡1 +c2 x5 es una soluci¶on de x2 y 00 ¡3xy 0 ¡5y = 0 en cualquier intervalo [a; b] que no contenga al 0. Si x0 6 = 0; y0 y m son arbitrarios, demuestre que c1 y c2 pueden escogerse de una y s¶olo una manera para que y(x0 ) = y0 e y 0 (x0 ) = m. 3. Demu¶estrese que las funciones y1 ecuaci¶on x2 y 00 ¡ 4xy 0 + (x2 + 6)y y(0) = 0; y 0 (0) = 0. >Contradice ecuaciones diferenciales lineales de = x2 sen x e y2 = 0 son soluciones de la = 0, y que ambas satisfacen las condiciones esto el Teorema de existencia y unicidad de segundo orden?. Justif¶³quese la respuesta. 4. Considere las funciones y1 = x3 e y2 = x2 jxj en el intervalo [¡1; +1]. Demuestre que su wronskiano es identicamente nulo en dicho intervalo, pero que, sin embargo, ambas funciones no son linealmente dependientes. >Qu¶e conclusi¶on puede sacarse de lo anterior?. 5. Indicando el intervalo correspondiente, estudiar la dependencia lineal de los siguientes conjuntos de funciones: (a) f1; x; x2 g (b) fex ; xex g (c) f1; x; 2x ¡ 3g 6. Demuestre que y = c1 e2x + c2 xe2x es la soluci¶on general de la ecuaci¶on y 00 ¡ 4y 0 + 4y = 0 en cualquier intervalo. 7. Demuestre que y = c1 ex +c2 e2x es la soluci¶on general de la ecuaci¶on y 00 ¡3y 0 +2y = 0 en cualquier intervalo, y encontrar la soluci¶ on particular que cumple y(0) = ¡1 0 e y (0) = 1. SOL.: y = ¡3ex + 2e2x : 8. Obteniendo en primer lugar una soluci¶on particular por observaci¶on directa, resolver las siguientes ecuaciones: 41 (a) xy 00 + 3y 0 = 0 (b) x2 y 00 + xy 0 ¡ 4y = 0 (c) xy 00 ¡ (2x + 1)y 0 + (x + 1)y = 0 9. Resolver las siguientes ecuaciones: (a) y 4) ¡ y = 0 (b) y 4) ¡ y 00 = 0 (c) y 3) ¡ 3y 00 + 7y 0 ¡ 5y = 0 (d) y 5) ¡ 2y 4) + 5y 3) ¡ 8y 00 + 4y 0 = 0 SOL.: a) y = c1 e + c2 e + c3 cos x + c4 sen x: b) y = c1 + c2 x + c3 e + c4 e : c) y = c1 ex + c2 ex cos 2x + c3 ex sen 2x: d) y = c1 + c2 ex + c3 xex + c4 cos 2x + c5 sen 2x: x ¡x x ¡x 10. Por observaci¶on directa encuentre una soluci¶on particular para cada una de las siguientes ecuaciones: (a) x3 y 00 + x2 y 0 + xy = 1 (b) y 00 ¡ 2y 0 = 6 (c) y 00 ¡ 2y 0 = sen x 11. Resolver las siguientes ecuaciones: (a) y 00 ¡ 2y 0 + y = 2x: (b) y 00 ¡ y 0 ¡ 6y = e¡x . (c) y 00 + 4y = tan 2x: (d) y 00 + 2y 0 + y = e¡x ln x: (e) y 00 ¡ 2y 0 ¡ 3y = 64 xe¡x : (f) y 00 + y = 2 cos x: (g) y 00 + 4y = 4 cos 2x + 6 cos x + 8x2 ¡ 4x: SOL.: a)2x+4+c1 ex +c2 xex : b)(¡1=4)e¡x +c1 e¡2x +c2 e3x : c)(¡1=4) cos 2x ln(tan(x+ ¼=4)) + c1 sen 2x + c2 cos 2x d)e¡x [(1=2)x2 ln x ¡ (3=4)x2 ] + c1 e¡x + c2 xe¡x : e) ¡ e¡x (8x2 + 4x) + c1 e¡x + c2 e3x : f )c1 sen x + c2 cos x + x sen x: g)c1 sen 2x + c2 cos 2x + x sen 2x + 2 cos x ¡ 1 ¡ x + 2x2 : 12. La ecuaci¶on x2 y 00 + pxy 0 + qy = 0 42 donde p y q son constantes, se llama ecuaci¶on equidimensional de Euler. Probar que el cambio x = et la transforma en una ecuaci¶on lineal con coe¯cientes constantes, y aplicar esta t¶ecnica para encontrar la soluci¶on general de las siguientes ecuaciones: (a) x2 y 00 + 3xy 0 + 10y = 0 (c) 2x2 y 00 + 10xy 0 + 8y = 0 (b) x2 y 00 + xy 0 ¡ 16y = 0 13. Resolver las siguientes ecuaciones: (a) (x2 ¡ 1)y 00 ¡ 2xy 0 + 2y = (x2 ¡ 1)2 (b) (x2 + x)y 00 + (2 ¡ x2 )y 0 ¡ (2 + x)y = x(x + 1)2 SOL.: a) (1=6)x4 ¡(1=2)x2 +c1 x+c2 (x2 +1) b)¡1¡x¡(1=3)x2 +c1 ex +c2 (1=x). 14. Resolver las siguientes ecuaciones: (a) y 3) + 4y 0 = 5xex (b) y 3) + y 0 = tan x SOL. a)xex ¡ (7=5)ex + c1 + c2 cos 2x + c3 sen 2x: b) ln(sec x) ¡ sen x[ln(sec x + tan x)] + c1 + c2 cos x + c3 sen x: 43 Cap¶³tulo 4 Transformada de Laplace 4.1 Introducci¶ on. Vamos a introducir en este tema una herramienta u ¶til en la resoluci¶on de ecuaciones diferenciales y sistemas de ecuaciones diferenciales. La transformada de Laplace es un operador (act¶ ua sobre funciones dando lugar a otras funciones) cuya principal propiedad es transformar las derivadas de una funci¶ on en potencias. En el caso particular de las ecuaciones lineales de coe¯cientes constantes, este operador transforma la ecuaci¶on en un polinomio o una funci¶on racional cuyas \ra¶³ces" ( que van a ser funciones) nos van a proporcionar las soluciones de la ecuaci¶on. Resulta especialmente u ¶til cuando en la ecuaci¶ on intervienen funciones peri¶odicas, o un tipo particular de funciones denominadas funciones escal¶on y funciones impulso, que aparecen en problemas de fuerzas, ondas y corrientes el¶ectricas. 4.1.1 De¯nici¶ on.- Sea f : [0; 1) 7 ¡! R una funci¶on de¯nida para t ¸ 0. Se denomina transformada de Laplace de f a la funci¶on F(p) de¯nida por: F(p) = Z 1 e¡pt f (t)dt = 0 = lim Z b!1 0 b e¡pt f (t)dt cuyo dominio es el conjunto de valores p 2 R para los cuales la integral impropia es convergente. 9 Observaci¶ on: ² Si la integral anterior diverge para un valor de p, entonces la transformada no est¶a de¯nida en ese punto. ² La funci¶on f se denomina funci¶on objeto y la funci¶on F se denomina funci¶on imagen. 44 ² La funci¶on F se denota tambi¶en por L(f ). Ejemplos: 1. L(1)(p) = 1 p si p > 0. Si p > 0, L(1)(p) = lim b!1 Rb 0 Si p · 0, L(1)(p) = lim b!1 mada. n! pn+1 2. L(tn )(p) = e¡pb b!1 ¡p e¡pt dt = lim Rb 0 + 1 p = 1p : e¡pt dt = 1, por tanto, no est¶a de¯nida la transfor- si p > 0. Se obtiene este resultado aplicando el principio de inducci¶ on completa: Para n=1, si p > 0, L(t)(p) = lim Rb e¡pt tdt = (integrando por partes) = lim = 1 : p2 be¡pb b7 !1 ¡p R1 + 0 e¡pt dt p ¡pb = lim ¡ e p2 b7 !1 b7 !1 + p12 0 Si p · 0 la integral diverge. Si lo suponemos cierto para n-1, es decir L(tn¡1 )(p) = integrando por partes se obtiene: n e¡ pb L(tn )(p) = lim ¡ b b7 !1 3. L(eat )(p) = 1 p¡a p + np L(tn¡1 )(p) = n! pn+1 (n¡1)! pn si p > 0, entonces si p > 0 si p > a. (la demostraci¶on se deja como ejercicio). 4. Igualmente, se puede demostrar utilizando la de¯nici¶on que: L(cos bt)(p) = p2 p + b2 si p > 0 L( sen bt)(p) = b p2 + b2 si p > 0 4.1.2 Proposici¶ on.- (Linealidad de la transformada). Sean f; g : [0; 1) 7 ¡! R; si existen F(p) y G(p) y ®; ¯ 2 R, entonces existe L(®f + ¯g)(p) y se tiene que: L(®f + ¯g)(p) = ®F(p) + ¯G(p) Esta propiedad se obtiene directamente de la de¯nici¶ on de transformada y de las propiedades de las integrales impropias. 10 Observaci¶ on: La propiedad anterior nos permite calcular, por ejemplo, la transformada de un polinomio, de forma f¶acil. 45 4.2 Condiciones de existencia de transformadas. Puesto que la transformada de Laplace es una integral impropia, las condiciones de existencia se basan en las condiciones para la existencia de integrales impropias, que se han estudiado en Matem¶aticas II; en particular, utilizaremos los criterios de comparaci¶on y el concepto de convergencia absoluta. Para trabajar con funciones que tienen transformada de Laplace, vamos a de¯nir dos tipos particulares de funciones : 4.2.1 De¯nici¶ on.- Una funci¶on f : [0; 1) 7 ¡! R se dice continua a trozos si para cada b > 0, la funci¶on f tiene a lo sumo un n¶ umero ¯nito de discontinuidades en [0; b] y todas son de salto ¯nito. 11 Observaci¶ on: Se vi¶o el curso anterior que las funciones continuas a trozos en intervalos acotados son integrables. Como si f es continua a trozos, e¡pt f (t) tambi¶en R lo es, resulta que para todo b > 0, existe 0b e¡pt f (t)dt. Para que exista la integral impropia es necesario adem¶as que jf (t)e¡pt j tienda a 0 en 1, pero ya se vi¶o el curso anterior que esto no es su¯ciente. Por ello, vamos a de¯nir otro tipo de funciones y R a dar un criterio para que la integral impropia 01 e¡pt f (t)dt converja. 4.2.2 De¯nici¶ on.- Una funci¶on f : [0; 1) 7 ¡! R se dice que es de orden exponencial c, si existen t0 ¸ 0 y M > 0, tales que: jf (t)j · M ect para cada t ¸ t0 . En el caso de que f sea de orden exponencial c, se tiene que: je¡pt f (t)j · Me¡(p¡c)t si t ¸ t0 : Si adem¶as f est¶a acotada en [0; t0 ], se puede encontrar una constante K > 0 tal que je¡pt f (t)j · Ke¡(p¡c)t si t ¸ 0 4.2.3 Teorema.- Sea f : [0; 1) 7 ¡! R una funci¶on continua a trozos y de orden exponencial c. Entonces: 1. Existe F(p) si p > c. 2. lim F(p) = 0. p7 !1 Demostraci¶on: Teniendo en cuenta la observaci¶on anterior, como f(t) es una funci¶on acotada en cada intervalo cerrado (por ser continua a trozos), existe una constante K > 0 tal que si t ¸ 0. je¡pt f (t)j · Ke(c¡p)t ; 46 R K Si p > c, entonces 01 Ke¡(p¡c)t dt = KL(1)(p ¡ c) = p¡c Por tanto, aplicando el criterio de mayoraci¶on para integrales impropias, existe la R integral 01 je¡pt f (t)jdt para p > c y se deduce la existencia de la transformada de Laplace. R R K Adem¶as, 0 · 01 je¡pt f (t)jdt · 01 Ke(c¡p)t dt = p¡c . 2 y por tanto lim F(p) = 0. p7 !1 Como consecuencia del teorema se tiene: ² si Á(p) es una funci¶on que depende de p y no veri¯ca que lim Á(p) = 0, entonces p7 !1 no puede ser la transformada de Laplace de ninguna funci¶ on continua a trozos y de orden exponencial. Se puede probar un resultado m¶as general a¶ un: no puede ser la transformada de Laplace de ninguna funci¶on. En particular, las funciones log p, sen p, cos p, ep y cualquier funci¶on racional en la que el grado del numerador sea mayor o igual que el del denominador, no pueden ser transformadas de ninguna funci¶on de variable real. ² Las hip¶otesis del teorema son condiciones su¯cientes, pero no necesarias; por ejemplo, la funci¶on t¡1=2 no es continua a trozos en [0; 1), pero si p > 0, mediante el cambio de variable pt = u2 se obtiene: Z b Z ppb 2 2 e¡pt t¡1=2 dt = p e¡u du p 0 0 y teniendo en cuenta que 1, se tiene que R1 0 2 p e ¡pt ¡1=2 e¡x dx = Z 1 t 0 ¼ , 2 tomando l¶³mites cuando b tiende a dt = s ¼ : p ² No todas las funciones poseen transformada de Laplace, por ejemplo la funci¶ on x2 e veri¯ca que lim ex x7 !1 2 ¡px =1 para cualquier valor de p y por tanto la integral impropia correspondiente a la transformada de Laplace no converge para ning¶ un valor de p. (Esta funci¶on es tambi¶en un ejemplo de funci¶on que no es de ning¶ un orden exponencial). 4.3 Transformada de derivadas e integrales. 4.3.1 Teorema.- Sea f : [0; 1) 7 ¡! R una funci¶on de clase 1 y de orden exponencial c. Entonces para todo p > c existe F(p) y L(f 0 )(p) y se tiene: L(f 0 )(p) = pF(p) ¡ f (0) 47 4.3.2 Teorema.- Sea f : [0; 1) 7 ¡! R una funci¶on de clase n y de orden exponen0 00 n¡1) son tambi¶en de orden exponencial c, entonces existen sus cial c. Si f ; f ; : : : ; f transformadas para todo p > c y se cumple: L(f n) )(p) = pn F(p) ¡ pn¡1 f (0) ¡ pn¡2 f 0 (0) ¡ ¢ ¢ ¢ ¡ f n¡1) (0): 4.3.3 Teorema.- Sea f : [0; 1) 7 ¡! R una funci¶on continua y de orden exponencial c. Si la funci¶on Z t g(t) = f (u)du 0 es tambi¶en de orden exponencial c, entonces para todo p > c existen F(p) y L(g)(p) y se veri¯ca: 1 L(g)(p) = F(p): p 4.3.4 Teorema.- (Teorema del valor inicial) Si a las hip¶otesis del teorema 4.3.1 a~ nadimos que f 0 sea de orden exponencial c, se cumple: lim f (t) = lim pL(f )(p): t!0+ p!1 4.3.5 Teorema.- (Teorema del valor ¯nal) Si a las hip¶otesis del teorema anterior a~ nadimos que c < 0 se cumple: lim f (t) = lim pL(f )(p): t!1 4.4 p!0+ Teoremas operacionales. Permiten calcular m¶as r¶apidamente la transformada de Laplace de ciertas funciones. 4.4.1 Teorema.- Primer teorema de traslaci¶ on (Trasladada de la funci¶ on imagen). Si existe la transformada de Laplace de la funci¶on f en un punto p ¡ a (a 2 R), entonces existe L(eat f (t))(p) y L(eat f (t))(p) = F(p ¡ a): (Demu¶estrese a partir de la de¯nici¶on de transformada). Consecuencia: Permite calcular la transformada de una exponencial multiplicada por otra funci¶on que tenga transformada. Por ejemplo: L(eat sen (t))(p) = 1 (p ¡ a)2 + 1 (p ¡ a) (p ¡ a)2 + 1 Antes de ver otros resultados, introduciremos algunas funciones importantes: L(eat cos(t))(p) = 48 4.4.2 De¯nici¶ on.- (Funci¶on de Heaviside) Se de¯ne como ( 0 si t < 0 u(t) = 1 si t ¸ 0 Para cada p > 0 existe L(u)(p) = p1 . 4.4.3 De¯nici¶ on.- (Funci¶on escal¶on) Si a > 0 se de¯ne la funci¶on escal¶on en a como: ua (t) = ( 0 si t < a = u(t ¡ a) 1 si t ¸ a 4.4.4 Proposici¶ on.- Para cada p > 0 existe e¡pa : L(ua )(p) = p Demostraci¶on: En efecto, L(ua )(p) = Z 1 0 e¡pt ua (t)dt = (haciendo el cambio de variable s = t ¡ a) = Z 1 ¡a e¡p(s+a) u(s)ds = Z 1 e¡pa e¡ps u(s)ds = 0 e¡pa p 2 4.4.5 De¯nici¶ on.- (Funci¶on impulso unitario.) Si a; b > 0 se de¯ne la funci¶on impulso unitario en [a; b] como: 8 > > < 0 si t < a ua;b (t) = > 1 si a · t · b > : 0 si t ¸ b 4.4.6 Proposici¶ on.- Para cada p > 0 existe L(ua;b )(p) = e¡pa ¡ e¡pb : p Demostraci¶on: En efecto, la funci¶on ua;b (t) se puede escribir como ua ¡ ub y de ah¶³ se deduce el valor de la transformada. 2 4.4.7 Teorema.- Segundo teorema de traslaci¶ on (Trasladada de la funci¶ on objeto). Sea f una funci¶on real de¯nida en R; si existe F(p) y a > 0, existe L(ua (t)f (t ¡ a))(p) = e¡ap L(f )(p): 49 Demostraci¶on: L(ua (t)f (t ¡ a))(p) = Z 1 0 e¡pt ua (t)f (t ¡ a)dt = = ( haciendo el cambio de variable s=t-a) = = Z 0 1 Z 1 ¡a e¡p(s+a) u(s)f (s)ds e¡ps e¡pa f (s)ds = e¡pa L(f )(p): 2 12 Observaci¶ on: 1. El efecto de considerar la funci¶ on f (t ¡ a) en lugar de f (t) es una traslaci¶on de la funci¶on al punto a. 2. El efecto de multiplicar a la funci¶on f (t ¡ a) por ua (t) es que se anula la funci¶on a la izquierda de a. 3. De hecho, si se trabaja con funciones f : [0; 1) 7 ¡! R, para poder de¯nir L(ua (t)f (t ¡ a))(p) con a > 0 es necesario prolongar f a [¡a; 0]. Esta prolongaci¶on se hace habitualmente asignando el valor 0 a la funci¶ on en este intervalo. 4.4.8 Teorema.- Cambio de escala. Si existe L(f ) en ap , siendo a > 0, entonces existe L(f (at))(p) y esta transformada vale 1 p L(f )( ) a a La demostraci¶on es una simple aplicaci¶on de la de¯nici¶on de transformada. Consecuencias: 1. Permite calcular f¶acilmente algunas transformadas. 2. Un cambio de escala en la funci¶on objeto produce un cambio de escala inverso en la funci¶on imagen. 4.5 Aplicaci¶ on a las ecuaciones diferenciales de coe¯cientes constantes. Dada la ecuaci¶on y 00 + ay 0 + by = f (x) y(0) = y0 0 y (0) = y1 9 > > = > > ; se busca una soluci¶on y = y(x) ( es decir, una funci¶on dos veces derivable en un intervalo [a,b] que contenga a 0, y que cumpla la ecuaci¶on en dicho intervalo). 50 Si f(x) es continua a trozos y de orden exponencial se puede demostrar ( no lo haremos) que las funciones y; y 0 ; y 00 cumplen las mismas propiedades. Entonces, considerando la transformada a ambos lados de la ecuaci¶on, se tiene: L(y 00 + ay 0 + by)(p) = L(f (x))(p) es decir, p2 Y(p) ¡ py0 ¡ y1 + a(pY(p) ¡ y0 ) + bY(p) = F(p) que es una ecuaci¶on algebr¶aica en Y. Despejando, se obtiene la transformada de la funci¶on y: F(p) + (p + a)y0 + y1 Y(p) = p2 + ap + b Se puede demostrar que dos funciones continuas con id¶entica transformada son iguales [Dettman, pg. 308], por tanto, si encontramos una funci¶on h(x), dos veces derivable en [a,b] y cuya transformada coincida con Y(p), ser¶a la soluci¶on buscada de la ecuaci¶on diferencial. Ejemplo: Dado el problema 9 y 00 + 4y = 4x > > = y(0) = y0 > > y 0 (0) = y1 ; Aplicando el m¶etodo anterior se obtiene: 1 Y(p) = 2 p +4 à 4 + py0 + y1 p2 ! La funci¶on y(x) = y0 cos 2x + y21 sen 2x + x ¡ 12 sen 2x tiene por transformada Y(p) y se puede comprobar que es la soluci¶on buscada. El problema que nos queda por resolver es, dada Y(p), >c¶omo encontrar una funci¶on dos veces derivable, cuya transformada sea ¶esta?. 4.6 M¶ etodo de fracciones simples para el c¶ alculo de la transformada inversa de Laplace. Llamamos transformada inversa de Laplace de la funci¶on Y, a una funci¶on su¯cientemente regular y(x) tal que L(y(x))(p) = Y(p). Hemos observado hasta ahora que la mayor parte de las transformadas son funciones racionales Q(p) con grado del denominador mayor que el del numerador. El m¶etodo R(p) de fracciones simples consiste en descomponer esta funci¶on racional en fracciones simples y determinar la antitransformada de cada una, obteniendo como soluci¶on la 51 suma de las antitransformadas. Para aquellas funciones que no son racionales, en algunos casos, se pueden aplicar las propiedades de derivaci¶on e integraci¶on de la transformada para obtener la antitransformada (cuando la derivada o la primitiva de tales funciones sea racional). En la tabla de antitransformadas pueden observarse las antitransformadas de todos los tipos de fracciones simples existentes: 1 (p¡a)n 1 ((p+A)2 §B 2 )n 1 p¡a 1 (p+A)2 §B 2 4.7 Aplicaci¶ on a las ecuaciones diferenciales lineales con coe¯cientes que son polinomios de grado 1. Derivadas e integrales de transformadas. 4.7.1 Teorema.- Sea f : [0; 1) 7 ¡! R una funci¶on continua y de orden exponencial n c. Entonces para todo p > c existen L((¡t)n f (t))(p) y d dpF(p) y: n dn F(p) L((¡t) f (t))(p) = dpn n 4.7.2 Teorema.- Si f : [0; 1) 7 ¡! R y f (t) son funciones continuas a trozos y de t orden exponencial c. Entonces para todo p > c Z 1 f (t) )(p) = L( F(s)ds: t p 4.7.3 Proposici¶ on.- Con las mismas hip¶otesis del teorema anterior, si podemos hacer p=0, se obtiene: lim+ L( p!0 Z 1 f (t) )(p) = F(s)ds: t 0 Aplicaci¶ on: La ecuaci¶on: A(x)y 00 + B(x)y 0 + C(x)y = R(x) donde A,B y C son polinomios de grado uno, se puede resolver utilizando la transformada de Laplace; ¶esta convierte la ecuaci¶on en una ecuaci¶on diferencial lineal de primer orden en L(y). Resolvi¶endola, se obtiene L(y), y antitransformando se obtiene la soluci¶on de la ecuaci¶on. 52 4.8 Otras propiedades Producto de convoluci¶ on. 4.8.1 De¯nici¶ on.- Sean f y g funciones integrables. Se de¯ne la funci¶ on convoluci¶on de f y g, que denotaremos f ¤ g, como la funci¶on de¯nida por (f ¤ g)(t) = Z t 0 f (s)g(t ¡ s)ds 4.8.2 Teorema.- Si f y g son continuas a trozos y de orden exponencial c, entonces existe L(f ¤ g)(p) para p > c y L(f ¤ g)(p) = L(f )(p)L(g)(p): Consecuencia: Este teorema permite encontrar la antitransformada de ciertas funciones sin necesidad de descomponer en fracciones simples, como por ejemplo: 2 + 4) p(p2 cuya antitransformada es la convoluci¶on de las funciones 1 y sen (2t). Tambi¶en permite obtener otras antitransformadas como la de la funci¶ on: 1 + 1)2 (p2 como convoluci¶on de la funci¶on sen t consigo misma. Funciones peri¶ odicas. 4.8.3 Teorema.- Si f : [0; 1) 7 ¡! R es una funci¶on de periodo T y continua a trozos en [0,T], existe su transformada de Laplace para p > 0 y RT 0 L(f )(p) = e¡pt f (t)dt 1 ¡ e¡pT Demostraci¶on: Por ser continua a trozos en [0,T] y peri¶odica, es de orden exponencial 0. Entonces, si p > 0, se tiene: L(f )(p) = Z 1 e ¡pt f (t)dt = Z T e 0 0 ¡pt f (t)dt + Z 1 e¡pt f (t)dt = T (haciendo el cambio de variable s = t ¡ T ) = Z 0 T e¡pt f (t)dt + Z 1 0 53 e¡p(s+T ) f (s + T )ds = = Z T e ¡pt ¡pT f (t)dt + e 0 Z 1 e¡ps f (s)ds: 0 Despejando, se obtiene el resultado. Ejemplo: R 2¼ ¡pt e sen tdt 1 L( sen t)(p) = 0 = : ¡2¼p 1¡e 1 + p2 4.9 2 Delta de Dirac A menudo los sistemas mec¶anicos o el¶ectricos est¶an sometidos a fuerzas de gran magnitud que act¶ uan durante un intervalo de tiempo muy peque~ no. Vamos a construir funciones que nos pueden servir de modelo para tales fuerzas: Para ² > 0, consideremos 8 1 > > si a < t < a + ² > < ² ±² (t ¡ a) = > Conviene observar: > > : 0 si t·a ¶o t ¸ a + ² 1. La variaci¶on de las gr¶a¯cas de las funciones ±² cuando ² se hace cada vez m¶as peque~ no. 2. Z 1 ¡1 ±² = 1 µ ¶ " 1 e¡ap e¡(a+²)p 1 3. L(±² ) = L (u(t ¡ a) ¡ u(t ¡ (a + ²))) = ¡ ² ² p p # 4. Cuando ² ! 0, no tiene sentido lim²!0 ±² (t ¡ a) como una funci¶on propiamente dicha, pero podemos considerar una \especie de funci¶ on" de¯nida como ±(t ¡ a) = lim ±² (t ¡ a) ²!0 que vale in¯nito en el punto a y 0 en los restantes. La llamaremos \delta de Dirac" en el punto a, y la manejaremos por sus propiedades: (a) (b) Z 1 ¡1 ±=1 L(±(t ¡ a)) = L(lim ±² ) = lim L(±² ) = ²!0 ²!0 e¡ap (1 ¡ e¡²p ) = e¡ap ²!0 ²p = lim (en el u ¶ltimo paso hemos aplicado la regla de L'H^opital). En particular cuando a = 0, L(±(t)) = 1 54 Observemos que limp!1 L(±(t))(p) 6 ! 0, lo que nos corrobora que, en efecto, la delta de Dirac no es una funci¶on. Por otra parte, la delta se puede considerar una \especie de derivada" de la funci¶on u escal¶on. 55 Tabla de transformadas f (t) L(f (t))(p) = F(p) 1 1 p si p > 0 n! pn+1 si p > 0 t v u u t si p > 0 sen bt b p2 + b2 si p > 0 cos bt p p2 + b2 si p > 0 tn n = 1; 2; : : : ¡1=2 ¼ p sh (bt) b p2 ¡ b2 si p > jbj ch (bt) p p2 ¡ b2 si p > jbj u 1 p si p > 0 ua e¡pa p si p > 0 ±(t ¡ a) e¡pa si p > 0 56 Tabla de propiedades L(f (t))(p) = F(p) f (t) f0 pF(p) ¡ f (0) f n) pnF(p) ¡ pn¡1f (0) ¡ pn¡2f 0(0) ¡ ¢ ¢ ¢ ¡ f n¡1)(0) Z t 0 1 F(p) p f (u)du f (at) 1 p F( ) a a n dnF(p) dpn (¡t) f (t) f (t) t Z 1 p F(u) du eatf (t) F(p ¡ a) u(t ¡ a)f (t ¡ a) e¡apF(p) Z t 0 f f (u)g(t ¡ u) du F(p)G(p) RT 0 T-peri¶odica 57 e¡ptf (t)dt 1 ¡ e¡pT 4.10 Ejercicios: 1. Si f : [0; 1) 7 ¡! R es una funci¶on de orden exponencial c y g : [0; 1) 7 ¡! R es de orden exponencial d, >de qu¶e orden exponencial es f + g y f g?. 2. Demostrar que si limt7 !1 jf (t)j ect es ¯nito, entonces f es de orden exponencial c. 3. Calcular la transformada de Laplace de las funciones siguientes: (a) f (t) = [t] ¡ t donde [t] denota la parte entera de t. (b) f (t) = [t] ( poner esta funci¶on como suma de dos funciones cuya transformada de Laplace sea conocida). (c) f (t) = ( 1 0 (d) f (t) = j sen tj. si t 2 [na; (n + 1)a] con n 2 N par (onda cuadrada). si t 2 [na; (n + 1)a] con n 2 N impar 4. Resolver las siguientes ecuaciones diferenciales: (a) y 0 + y = 3e2t , y(0) = 0. (b) y 00 ¡ 4y 0 + 4y = 0, y(0) = 0, y 0 (0) = 3. (c) y 00 + 2y 0 + 2y = 2, y(0) = 0, y 0 (0) = 1. (d) y 00 + y 0 = 3t2 , y(0) = 0, y 0 (0) = 1. (e) y 00 + 2y 0 + y = u1 (t) ¡ 2u2 (t) + u3 (t), y(0) = y 0 (0) = 0. (f) ty 00 + (2t + 3)y 0 ¡ (4t + 9)y = 0, y(0) = 1. (g) ty 00 + (3t ¡ 1)y 0 + 3y = 6e¡3t , y(0) = 1, y(5) = 2. 5. Utilizando la propiedad de la transformada de Laplace: ¡ d L(f )(p) = L(tf (t))(p); dp encontrar la antitransformada de las funciones siguientes (se sugiere derivar estas funciones, antitransformar y aplicar la propiedad mencionada): (a) arctg 1p . (b) log (c) log ³ ³ p¡3 p+1 ´ p2 +1 p2 +4 . ´ . 6. La de°exi¶on est¶atica en una viga rectil¶³nea uniforme de longitud L que soporta una carga w(x) por unidad de longitud, se obtiene a partir de la ecuaci¶ on diferencial: EIy iv) (x) = w(x) 58 en donde E es el m¶odulo de elasticidad del material e I es el momento de inercia de una secci¶on transversal de la viga. Para una viga en voladizo empotrada en su extremo izquierdo (x=0) y libre en su extremo derecho (x=L), se tiene que Y(x) debe satisfacer: y(0) = 0, y 0 (0) = 0, y 00 (L) = 0, y 000 (L) = 0. Las dos primeras condiciones expresan que la de°exi¶ on est¶atica de la viga y la pendiente son cero en x = 0 y las dos u ¶ltimas dicen que el momento °exionante y la fuerza cortante son 0 en x = L. Usar la transformada de Laplace para determinar la soluci¶on y(x) de este problema de contorno, cuando una carga constante w0 se distribuye uniformemente a lo largo de la viga, es decir, cuando w(x) = w0 , 0 · x · L. 59 Cap¶³tulo 5 Sistemas de ecuaciones diferenciales. 5.1 Preliminares. De¯niciones Sea una matriz A(t) = (aij (t))i;j=1:::n donde aij (t) son funciones de¯nidas en un intervalo I; 5.1.1 De¯nici¶ on.- Diremos que la matriz A es continua en el punto t0 2 I, si cada una de las funciones aij es continua en el punto t0 . 5.1.2 De¯nici¶ on.- Diremos que la matriz A es derivable en el punto t0 2 I, si cada una de las funciones aij es derivable en el punto t0 . Si la matriz A(t) es derivable en todo I, de¯nimos la matriz derivada por: A0 (t) = (a0ij (t))i;j=1;::: ;n t 2 I 5.1.3 Proposici¶ on.- Son inmediatas las siguientes propiedades: ² d d (CA) = C: (A) donde C es una matriz constante dt dt ² d d d (A + B) = (A) + (B) dt dt dt ² d d d (A:B) = (A):B + A: (B). dt dt dt 5.1.4 De¯nici¶ on.- Diremos que la matriz A es integrable en I, si cada una de las funciones aij es integrable en I. Si la matriz A(t) es integrable en I, de¯nimos la integral de la matriz A(t) en el intervalo I = [a; b] por Z b Z b A(t) dt = ( a a aij (t) dt)i;j=1;::: ;n 60 (k) 5.1.5 De¯nici¶ on.- Dada la familia de matrices Ak = (aij )i;j=1;::: ;n k = 1; 2; : : : se de¯ne la matriz aij a 1 P k=1 1 P Ak = lim n P n!1 k=1 k=1 Ak como aquella matriz que tiene por elemento (k) aij . Sistemas en forma normal Un sistema de n ecuaciones diferenciales de primer orden escrito en forma normal es un sistema de la forma: 8 > y10 = f1 (t; y1 ; : : : ; yn ) > > > > < y 0 = f2 (t; y1 ; : : : ; yn ) 2 > > > > > : .. . 0 yn = fn (t; y1 ; : : : ; yn ) Es decir, en realidad es una ecuaci¶ on diferencial vectorial ~y 0 = f~(t; ~y ) t2I intervalo Si Á1 ; : : : ; Án son n funciones, diremos que (Á1 ; : : : ; Án ) es una soluci¶on de dicho sistema en el intervalo I, si se veri¯ca: ² Á1 ; : : : ; Án , son derivables en el intervalo I ² (t; Á1 (t); : : : ; Án (t)) 2 Dom(fi ) 8i = 1; 2; : : : ; n ² 8 > Á01 (t) > > > > < Á0 (t) 2 > > > > > : = f1 (t; Á1 (t); : : : ; Án (t)) = f2 (t; Á1 (t); : : : ; Án (t)) .. .. . . .. . 0 Án (t) = fn (t; Á1 (t); : : : ; Án (t)) 8t 2 I Nota: Aunque s¶olo estudiaremos sistemas de primer orden, observemos que algunos sistemas de orden superior al primero, pueden convertirse en sistemas de primer orden en forma normal, sin m¶as que aumentar el n¶ umero de inc¶ognitas. Por ejemplo, dado el sistema: 8 2 d y1 dy1 > > > = 2 + 3y2 + e2t < 2 dt dt > > d2 y2 dy2 > : = ¡y1 ¡ 2 2 dt dt dy1 dy2 si hacemos z1 = y1 ; z2 = ; z3 = y2 ; z4 = obtenemos el sistema de primer dt dt orden: 61 8 dz1 > > > = z2 > > > dt > > > > dz2 > > > = 2z2 + 3z3 + e2t < dt > dz3 > > > = z4 > > > dt > > > > dz4 > > : = ¡z1 ¡ 2z4 dt 5.2 Sistemas lineales de primer orden Son aquellos de la forma: 8 > y10 > > > > < y0 2 > > > > > : = a11 (t)y1 + a12 (t)y2 + ¢ ¢ ¢ + a1n (t)yn + b1 (t) = a21 (t)y1 + a22 (t)y2 + ¢ ¢ ¢ + a2n (t)yn + b2 (t) .. . .. . yn0 = an1 (t)y1 + an2 (t)y2 + ¢ ¢ ¢ + ann (t)yn + bn (t) donde las aij (t) y bi (t) son funciones continuas en un intervalo I para i; j = 1; : : : ; n: Escribiremos este sistema m¶as c¶omodamente en forma matricial: ~y 0 = A(t)~y + ~b(t) t 2 I (sl) donde A(t) = (aij (t))i;j=1;::: ;n y ~b(t) = (b1 (t); : : : ; bn (t))T Cuando ~b(t) ´ ~0, el sistema se llama homog¶eneo; y cuando los coe¯cientes aij son constantes, el sistema se llama de coe¯cientes constantes. Un problema de Cauchy para el sistema lineal (sl), es ( ~y 0 = A(t)~y + ~b(t) ~y (t0 ) = ~y0 t2I donde t0 2 I e ~y0 2 Rn . Condiciones de existencia y unicidad 5.2.1 Teorema.- Consideremos el problema de Cauchy ( ~y 0 = A(t)~y + ~b(t) ~y (t0 ) = ~y0 t2I donde las componentes de A(t) y ~b(t) son funciones continuas en un intervalo I de R, t0 2 I e ~y0 es un vector arbitrario de Rn . Entonces, existe una soluci¶on de dicho problema de Cauchy, ~y (t), de¯nida y de clase C 1 en todo el intervalo I. Adem¶as, si ~z(t) es otra soluci¶on de este problema, entonces, en el intervalo com¶ un de de¯nici¶on, ambas soluciones coinciden. 62 5.2.2 Corolario.- Si ~y (t) es soluci¶on del sistema homog¶eneo ~y 0 = A(t)~y y se anula en un punto, entonces ~y (t) ´ ~0 en todo el intervalo de de¯nici¶on. Transformaci¶ on de una ecuaci¶ on lineal de orden n en un sistema lineal de primer orden La ecuaci¶on lineal de orden n y n) + a1 (t)y n¡1) + : : : + an¡1 (t)y 0 + an (t)y = p(t) se transforma mediante el cambio y1 = y ; en 8 > > > > > > > > < y10 y20 .. . > > > 0 > > yn¡1 > > > : y0 n y2 = y 0 ; : : : ; yn = y n¡1) y2 y3 .. . = = .. . = yn = p(t) ¡ an (t)y1 ¡ : : : ¡ a1 (t)yn Es decir, en el sistema ~y 0 = M(t)~y + p~(t) donde 2 6 6 6 6 6 M (t) = 6 6 6 6 6 4 5.3 0 0 0 .. . 1 0 0 .. . 0 1 0 .. . ::: ::: ::: .. . 0 0 0 .. . 0 0 0 .. . 0 0 0 ::: 0 1 ¡an (t) ¡an¡1 (t) ¡an¡2 (t) : : : ¡a2 (t) ¡a1 (t) 3 7 7 7 7 7 7 7 7 7 7 5 2 y 6 6 6 6 6 p~(t) = 6 6 6 6 6 4 0 0 0 .. . 0 p(t) 3 7 7 7 7 7 7 7 7 7 7 5 Sistemas lineales homog¶ eneos 5.3.1 Proposici¶ on.- Las soluciones de un sistema lineal homog¶eneo de n ecuaciones ~y 0 = A(t)~y forman un espacio vectorial de dimensi¶on n. 63 Demostraci¶on: Es inmediato comprobar que cualquier combinaci¶ on lineal de soluciones es soluci¶on del sistema homog¶eneo, por lo que ¶estas forman un espacio vectorial. Encontremos una base de dicho espacio: Sean ~a1 ;~a2 ; : : : ; ~an ; una base de Rn y t0 un punto arbitrario de I. Para k = 1; 2; : : : ; n el teorema de existencia y unicidad garantiza que existe una u ¶nica soluci¶on ~yk (t) del problema de Cauchy ( ~y 0 = A(t) ~y ~y(t0 ) = ~ak Veamos que ~y1 (t); ~y2 (t); : : : ; ~yn (t); constituyen la base buscada. ² Son linealmente independientes en I ya que si ¸1 ~y1 (t) + : : : + ¸n ~yn (t) ´ ~0 escribiendo dicha igualdad en el punto t0 , tendremos ¸1~a1 + : : : + ¸n~an = ~0 y por ser ~a1 ; : : : ; ~an linealmente independientes, se deduce que ¸1 = ¸2 = : : : = ¸n = 0 ² Constituyen un sistema generador. En efecto, sea ~y (t) una soluci¶on del sistema; y consideremos ~v = ~y (t0 ). Como los ~a1 ; : : : ;~an son sistema de generadores en Rn , sean ¸1 ; ¸2 ; : : : ; ¸n tales que ~v = ¸1~a1 + ¸2~a2 + : : : + ¸n~an Las soluciones ~y (t) y ¸1 ~y1 + ¸2 ~y2 + : : : + ¸n ~yn del sistema homog¶eneo valen lo mismo en t0 , luego por el corolario 5.2.2 aplicado a su diferencia, se deduce que ~y ´ ¸1 ~y1 + ¸2 ~y2 + : : : + ¸n~yn Sistemas fundamentales de soluciones 5.3.2 De¯nici¶ on.- Una base del espacio de soluciones del sistema homog¶eneo ~y 0 = A(t)~y se llama sistema fundamental de soluciones de dicho sistema. Una matriz Y (t) cuyas columnas ~y1 (t); ~y2 (t); : : : ; ~yn (t) constituyen un conjunto fundamental de soluciones, se llama matriz fundamental del sistema. Es obvio que la soluci¶on general del sistema ser¶a: ~y (t) = c1 ~y1 + c2~y2 + : : : + cn ~yn = Y (t) ~c donde c1 ; : : : ; cn son constantes arbitrarias y ~c = (c1 ; : : : ; cn )T 64 5.3.3 Proposici¶ on.- Si Y (t) es una matriz cuyas columnas son soluciones del sistema ~y 0 = A(t)~y entonces Y veri¯ca la ecuaci¶on matricial Y 0 = AY llamada \ ecuaci¶on matricial asociada" al sistema. Rec¶³procamente, si Y veri¯ca la ecuaci¶on matricial, entonces sus columnas son soluci¶on del sistema ~y 0 = A(t)~y . Demostraci¶on: Es inmediata. 5.3.4 Proposici¶ on.- Si Y (t) es una matriz cuyas columnas son soluciones del sistema, entonces son equivalentes las siguientes propiedades: i) Y (t) es una matriz fundamental, es decir, sus columnas son linealmente independientes. ii) Existe un t0 tal que det Y (t0 ) 6 =0 iii) Para todo t 2 I se veri¯ca que det Y (t) 6 =0 5.4 Soluciones de un sistema no homog¶ eneo. Variaci¶ on de los par¶ ametros. Denotemos (sl) ~y 0 = A(t)~y + ~b(t) t 2 I (sh) ~y 0 = A(t)~y t 2 I y estudiemos la relaci¶on que existe entre las soluciones de (sl) y de (sh). 5.4.1 Proposici¶ on.- Sea ~y1 (t); ~y2 (t); : : : ; ~yn (t) un sistema fundamental de (sh) e Y (t) la correspondiente matriz fundamental; sea ~yp (t) una soluci¶on de (sl), (que llamaremos soluci¶on particular). Entonces, la soluci¶ on general del sistema (sl) es ~y (t) = ~yp (t) + Y (t)~c = ~yp (t) + c1~y1 (t) + : : : + cn ~yn (t) donde el vector ~c o las constantes c1 ; : : : ; cn toman valores arbitrarios. Demostraci¶on: Es inmediato comprobar que ~yp (t) + c1 ~y1 (t) + : : : + cn ~yn (t) es soluci¶on de (sl), para constantes cualesquiera. Por otra parte, si ~y (t) es una soluci¶on cualquiera de (sl), entonces ~y (t) ¡ ~yp (t) es 65 soluci¶on del sistema (sh), y como ~y1 (t); ~y2 (t); : : : ; ~yn (t) es un sistema fundamental de (sh), entonces ~y (t)¡~yp (t) se expresa como combinaci¶on lineal de ~y1 (t); ~y2 (t); : : : ; ~yn (t), es decir ~y (t) ¡ ~yp (t) = c1 ~y1 (t) + : : : + cn ~yn (t) para una elecci¶on adecuada de las constantes. 2 5.4.2 Proposici¶ on.- (Principio de superposici¶on de soluciones). Si ~yp1 (t); ~yp2 (t), son soluciones respectivas, de los sistemas ~y 0 = A(t)~y + ~b1 (t) t 2 I ; ~y 0 = A(t)~y + ~b2 (t) t 2 I entonces ~yp1 (t) + ~yp2 (t) es soluci¶on del sistema ~y 0 = A(t)~y + ~b1 (t) + ~b2 (t) t 2 I Demostraci¶on: Es trivial. 5.4.3 Proposici¶ on.- M¶ etodo de variaci¶ on de los par¶ ametros. Ya estudiamos el m¶etodo de variaci¶on de los par¶ametros para ecuaciones lineales de segundo orden, que consist¶³a en que si la soluci¶on general de la ecuaci¶on homog¶enea era de la forma yh (t) = c1 y1 (t) + c2 y2 (t) donde y1 (t) y y2 (t) son soluciones linealmente independientes de la ecuaci¶on homog¶enea, entonces busc¶abamos una soluci¶on particular de la ecuaci¶on no homog¶enea de la forma yp (t) = v1 (t)y1 (t) + v2 (t)y2 (t) donde v1 (t) y v2 (t) eran dos funciones que deb¶³amos determinar. Vamos a emplear para sistemas la misma idea: Supongamos que conocemos una matriz fundamental Y (t) del sistema homog¶eneo ~y 0 (t) = A(t)~y (t) Puesto que la soluci¶on general del sistema homog¶eneo viene dada por ~yh (t) = Y (t)~c, donde ~c es un vector constante, buscaremos una soluci¶ on particular del sistema no homog¶eneo ~y 0 (t) = A(t)~y (t) + ~b(t) de la forma ~yp (t) = Y (t)~v (t) donde ~v (t) = [v1 (t); : : : ; ~vn (t)]T es una funci¶on vectorial a determinar. Como ~yp (t)0 = Y (t)~v 0 (t) + Y 0 (t)~v (t) sustituyendo en el sistema debe veri¯carse: Y (t)~v 0 (t) + Y 0 (t)~v (t) = A(t)Y (t)~v (t) + ~b(t) y como Y 0 (t) = A(t)Y (t) , se deduce que se debe veri¯car que Y (t)~v 0 (t) = ~b(t) 66 de manera que ~v 0 (t) = [Y (t)]¡1~b(t) e integrando ~v (t) = Z [Y (t)]¡1~b(t) dt con lo que la soluci¶on particular buscada ser¶a: Z ~yp (t) = Y (t)~v (t) = Y (t): [Y (t)]¡1~b(t) dt y la soluci¶on general ser¶a: Z ~y (t) = Y (t)~c + Y (t): [Y (t)]¡1~b(t) dt En particular, la soluci¶on del sistema que veri¯ca la condici¶on inicial ~y (t0 ) = ~y0 ser¶a: Z t ~y (t) = Y (t)[Y (t0 )]¡1~y0 + Y (t): [Y (s)]¡1~b(s) ds t0 Insistamos en que para aplicar las f¶ormulas de variaci¶on de los par¶ametros es necesario determinar previamente una matriz fundamental del sistema homog¶eneo asociado. Estudiaremos esto m¶as adelante para matrices de coe¯cientes constantes. Veamos un ejemplo del m¶etodo de variaci¶on de los par¶ametros. 5.4.4 Ejemplo.Resolver 0 ~y (t) = " 2 ¡3 1 ¡2 # ~y (t) + " e2t 1 # sabiendo que una matriz fundamental para el sistema homog¶eneo asociado es Y (t) = " Calculamos ¡1 [Y (t)] 1 = 2 3et e¡t et e¡t " # : e¡t ¡e¡t ¡et 3et # con lo que 1 [Y (t)] :~b(t) = 2 ¡1 Z " 1 [Y (t)] :~b(t) = 2 ¡1 e¡t ¡e¡t ¡et 3et " R #" e2t 1 et ¡ e¡t dt R ¡e3t + 3et dt 67 # # 1 = 2 1 = 2 " " et ¡ e¡t ¡e3t + 3et et + e¡t ¡1=3e3t + 3et # # Z 1 Y (t) [Y (t)] :b(t) = 2 1 = 2 ¡1 ~ " " 3et e¡t et e¡t 3e2t + 3 ¡ 1=3e2t + 3 e2t + 1 ¡ 1=3e2t + 3 # # " : = " ¡t " et + e¡t ¡1=3e3t + 3et 4=3e2t + 3 1=3e2t + 2 # = # La soluci¶on general ser¶a: ~y (t) = Y (t)~c + ~yp (t) = c1 e 5.5 t " 3 1 # + c2 e 1 1 # + " 4=3e2t + 3 1=3e2t + 2 # Sistemas lineales homog¶ eneos de coe¯cientes constantes B¶ usqueda de soluciones Consideremos el sistema ~y 0 (t) = A ~y (t) donde A es una matriz cuadrada, real y constante de orden n. La soluci¶on general que buscamos estar¶a de¯nida para todo t 2 R , ya que los elementos de A son funciones constantes, y por lo tanto continuas en R. Como ya sabemos, la soluci¶on general del sistema homog¶eneo se puede construir a partir de un conjunto fundamental de soluciones. Nuestro objetivo, entonces, es encontrar n soluciones del (sh), linealmente independientes. Busquemos soluciones de la forma ~y (t) = e¸t~v donde ~v es un vector constante. Como d ¸t e ~v = ¸e¸t~v A(e¸t~v ) = e¸t A~v dt e¸t~v ser¶a soluci¶on del (sh) si, y s¶olo si, A~v = ¸~v , es decir, si ¸ es un autovalor de la matriz A y ~v un autovector correspondiente a ¸. Resoluci¶ on en un caso particular 5.5.1 Teorema.- Si la matriz constante A, de orden n, tiene n vectores propios linealmente independientes, ~v1 ; : : : ; ~vn , correspondientes a los autovalores ¸1 ; : : : ; ¸n (no necesariamente distintos), entonces fe¸1 t~v1 ; : : : ; e¸n t~vn g es un conjunto fundamental de soluciones del sistema ~y 0 (t) = A ~y (t) en R, y por tanto la soluci¶on general de este sistema es: ~y(t) = c1 e¸1 t~v1 + : : : + cn e¸n t~vn 68 Demostraci¶on: Es obvio que son n soluciones. Veamos que son linealmente independientes: =0 det[e¸1 t~v1 je¸2 t~v2 j : : : je¸n t~vn ] = e(¸1 +:::+¸n )t : det[~v1 j : : : j~vn ] 6 ya que la funci¶on exponencial no se anula nunca y los vectores ~v1 ; : : : ; ~vn son linealmente independientes. Recordemos algunos casos en que una matriz tiene n vectores linealmente independientes. 5.5.2 Proposici¶ on.- Si ¸1 ; : : : ; ¸n , son valores propios distintos de A y ~vi es un vector propio asociado a ¸i , para cada i, entonces los vectores ~v1 ; : : : ; ~vn son linealmente independientes. 5.5.3 Corolario.- Si la matriz A tiene n autovalores distintos ¸1 ; : : : ; ¸n y ~vi es un vector propio asociado a ¸i , entonces fe¸1 t~v1 ; : : : ; e¸n t~vn g es un sistema fundamental de ~y 0 (t) = A~y (t) 5.5.4 Proposici¶ on.- Una matriz real A de orden n, sim¶etrica, tiene n autovalores reales y n vectores propios linealmente independientes. Ejercicio: Resolver el sistema 0 ~y 0 (t) = A ~y (t) donde B B B B A=B B B @ 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 C C C C C C C A Observamos que 0 B B B A ~y = A B B B B @ y1 y2 y3 y4 y5 1 0 C B C B C B C B C = (y1 + y2 + y3 + y4 + y5 ) B C B C B A @ 1 2 3 4 5 1 C C C C C C C A (5.1) Por tanto, para los puntos que veri¯quen y1 + y2 + y3 + y4 + y5 = 0 tendremos que 0 B B B B AB B B @ y1 y2 y3 y4 y5 1 0 C B C B C B C B C = 0B C B C B A @ 69 y1 y2 y3 y4 y5 1 C C C C C C C A y dichos puntos ser¶an vectores propios asociados a ¸ = 0. Tomemos entre ellos a cuatro linealmente independientes: (1; 0; 0; 0; ¡1); (0; 1; 0; 0; ¡1); (0; 0; 1; 0; ¡1); (0; 0; 0; 1; ¡1) Por otra parte, en 5.1, observamos que 0 B B B AB B B B @ 1 2 3 4 5 1 0 C B C B C B C B C = (1 + 2 + 3 + 4 + 5) B C B C B A @ 1 2 3 4 5 1 0 C B C B C B C B C = 15 B C B C B A @ 1 2 3 4 5 1 C C C C C C C A luego el otro valor propio es 15, y un vector propio (1; 2; 3; 4; 5). Luego la soluci¶on del sistema es 0 B B B ~y (t) = c1 B B B B @ 1 0 0 0 ¡1 1 0 C B C B C B C B C + c2 B C B C B A @ 0 1 0 0 ¡1 1 0 C B C B C B C B C + c3 B C B C B A @ 0 0 1 0 ¡1 1 0 C B C B C B C B C + c4 B C B C B A @ 0 0 0 1 ¡1 1 0 C B C B C B C 15t B C + c5 e B C B C B A @ 1 2 3 4 5 1 C C C C C C C A Ejercicio: Resolver 2 3 1 2 ¡1 6 7 0 6 y (t) ; ~y (t) = 4 1 0 1 7 5~ 4 ¡4 5 2 3 ¡1 6 7 6 ~y (0) = 4 0 7 5 0 Resoluci¶ on en el caso general Estudiemos ahora la resoluci¶on del (sh) ~y 0 (t) = A ~y(t) A matriz real constante n £ n cuando la matriz A tiene exactamente k · n autovectores linealmente independientes. Observemos que la soluci¶on de la ecuaci¶on escalar y 0 = ay a2R es y(t) = Ceat . Podr¶³amos pensar que tal vez la soluci¶on del (sh) fuera ~y (t) = eAt~v , donde ~v es un vector constante. Sin embargo, eAt no est¶a de¯nida ya que A es una matriz. Pero, recordemos que cuando a es un escalar a2 t2 an tn e = 1 + at + + ::: + + ::: 2! n! at 70 y, por tanto, parece l¶ogico de¯nir cuando A es una matriz eAt = I + At + A2 t2 An tn An+1 tn+1 + ::: + + + ::: 2! n! (n + 1)! Se puede demostrar que esta serie converge para todo t y que se puede derivar t¶ermino a t¶ermino, obteni¶endose que d At A3 t2 An+1 tn e = A + A2 t + + ::: + + ::: = dt 2! n! = A(I + At + A2 t2 An tn + ::: + + : : : ) = AeAt 2! n! con lo que d At e ~v = AeAt~v = A (eAt~v ) dt on del sistema homog¶ eneo (sh) para cada vector y, por tanto eAt~v es soluci¶ constante ~v . Se deduce de aqu¶³ que como las columnas de la matriz eAt son eAt~ei , entonces las columnas de eAt son soluciones del sistema (sh). Propiedades de la matriz exponencial: 1. eA0 = e0 = I 2. erI = er I 3. eA(t+s) = eAt eAs 4. e(A+B)t = eAt eBt () AB = BA 5. (eAt )¡1 = e¡At En particular, de la propiedad 5) se deduce que eAt es inversible, y que por tanto, sus columnas son linealmente independientes, y como eran soluciones, eAt es una matriz fundamental del (sh) Por desgracia, aunque te¶oricamente el problema est¶a resuelto, el c¶alculo de eAt no es f¶acil. Ya veremos en los ejercicios algunos casos en los que este c¶alculo es sencillo. Estudiemos ahora la relaci¶on que existe entre matrices fundamentales: 5.5.5 Proposici¶ on.- Si ©(t) es una matriz fundamental del (sh) y C es una matriz constante no singular, la matriz ©(t)C es una matriz fundamental del (sh). Adem¶as, cualquier otra matriz fundamental es de la forma ©(t)C con C no singular. Demostraci¶on: Sea C una matriz no singular y ©(t) una matriz fundamental. [©(t)C]0 = ©0 (t)C = A©(t)C = A[©(t)C] 71 y como det(©(t)C) = det(©(t)): det C 6 = 0 8t 2 [a; b] cualquier matriz ©(t)C ser¶a fundamental. Rec¶³procamente , si ¤(t) es fundamental, consideremos la matriz no singular ¡(t) = ©¡1 (t)¤(t); es decir ¤(t) = ©(t) ¡(t). Debemos ver que ¡(t) es constante. En efecto, ¤0 (t) = ©0 (t)¡(t) + ©(t)¡0 (t) teniendo en cuenta que ¤ y © son fundamentales, y por tanto veri¯can la ecuaci¶ on matricial asociada, sustituyendo en ambos miembros, A ¤(t) = A ©(t)¡(t) + ©(t)¡0 (t) = A ¤(t) + ©(t)¡0 (t) lo que implica que ©(t):¡0 (t) = 0 8t y como ©(t) es inversible por ser una matriz fundamental, resulta que ¡0 (t) = 0 8t , de donde se deduce que ¡(t) es constante. Relaci¶ on entre la matriz eAt y otra matriz fundamental Supongamos ahora que conocemos una matriz fundamental X(t) del (sh). Como eAt es tambi¶en una matriz fundamental, deducimos de la proposici¶on 5.5.5 que eAt = X(t)C Haciendo t = 0 en esta expresi¶on, se obtiene I = X(0)C, es decir C = (X(0))¡1 = X ¡1 (0), y por tanto eAt = X(t)X ¡1 (0) Construcci¶ on efectiva de una matriz fundamental Pero seguimos sin conocer en forma pr¶actica ninguna matriz fundamental. Sabemos que eAt~v es soluci¶on del (sh) para cualquier vector ~v ; por tanto, si ~v1 ; : : : ; ~vn , son vectores columna linealmente independientes, la matriz (eAt~v1 jeAt~v2 j : : : jeAt~vn ) es una matriz cuyas columnas son soluci¶on, que coincide con eAt (~v1 j : : : j~vn ) = eAt C, donde C es una matriz no singular, y por la proposici¶on 5.5.5, se tratar¶a de una matriz fundamental. Ahora, el \truco" consiste en elegir los vectores ~v1 ; : : : ; ~vn de forma que eAt vi se calcule f¶acilmente. Veamos esto: Como, (por las propiedades 2) y 4)), eAt = ert e(A¡rI)t tendremos que: eAt~v = ert e(A¡rI)t~v = 72 (A ¡ rI)2 t2 + : : : ]~v = 2! (A ¡ rI)2 t2 ~v + : : : ] = ert [~v + (A ¡ rI)t~v + 2! Si elegimos ~v tal que (A ¡ rI)k~v = ~0 para alg¶ un r y alg¶ un k, la suma anterior es k+l una suma ¯nita inmediata de calcular, ya que (A ¡ rI) ~v = (A ¡ rI)l (A ¡ rI)k~v = (A ¡ rI)l~0 = ~0 8l = 1; 2 : : : = ert [I + (A ¡ rI)t + 5.5.6 De¯nici¶ on.- Sea A una matriz constante n £ n, y r un valor propio de A. Un vector no nulo ~v que satisfaga (A ¡ rI)k~v = ~0 para alg¶ un entero positivo k, se llama vector propio generalizado asociado a r. Un resultado de a¶lgebra que no demostraremos, asegura que si el polinomio caracter¶³stico de A tiene los autovalores (complejos) r1 ; r2 ; : : : ; rk de multiplicidades m1 ; m2 ; : : : ; mk , respectivamente, entonces para cada i = 1; : : : ; k existen mi vectores propios generalizados linealmente independientes, asociados con ri , de forma que el conjunto de los n = m1 + : : : + mk vectores propios generalizados es linealmente independiente. Adem¶as, si ~vi es un vector propio generalizado asociado con ri , veri¯ca que (A ¡ ri I)mi ~vi = ~0 Por tanto: ¶ METODO para obtener un conjunto fundamental de soluciones de la ecuaci¶ on homog¶enea de coe¯cientes constantes ~y 0 = A ~y 1. Calculamos el polinomio caracter¶³stico de A para encontrar los valores propios distintos r1 ; r2 ; : : : ; rk . 2. Para cada valor propio ri encontramos mi vectores propios generalizados linealmente independientes, donde mi es la multiplicidad de ri . (Todos ellos deben veri¯car que (A ¡ ri I)mi ~v = ~0) 3. Usamos los n vectores propios generalizados obtenidos en el paso anterior para calcular las n soluciones linealmente independientes de la forma eAt~v = ert [~v + t(A ¡ rI)~v + t2 (A ¡ rI)2 ~v + : : : ] 2! (Si r tiene multiplidad m, la serie anterior tiene m sumandos.) 73 Dichas soluciones, que denotaremos ~yi , constituyen las columnas de una matriz fundamental Y (t). A partir de ella, podemos calcular eAt = Y (t)Y ¡1 (0) Notas: 1. Si la matriz A tiene n vectores propios linealmente independientes, el m¶etodo proporciona las soluciones er1 t~v1 ; : : : ; ern t~vn ya conocidas. 2. Obs¶ervese que si se trataba de obtener la soluci¶on general del sistema homog¶eneo basta con encontrar Y (t) por el m¶etodo descrito. Ahora bien, si se trata de un (o con mayor raz¶on m¶ ultiples) problema de valores iniciales: ~y 0 = A ~y ~y (t0 ) = y~0 ² Si conocemos una matriz fundamental cualquiera X(t), por ejemplo la constru¶³da anteriormente, la soluci¶on general ser¶a: ~y (t) = X(t):~c = c1~x1 (t) + : : : + cn~xn (t) y, por tanto, para encontrar aquella que veri¯que la condici¶on ~y (t0 ) = ~y0 debemos resolver el sistema de ecuaciones ~y0 = c1~x1 (t0 ) + : : : + cn~xn (t0 ) ² Pero si conocemos la matriz eAt como (eAt )t=0 = I, la matriz Z(t) = eA(t¡t0 ) veri¯ca Z(t0 ) = I y tambi¶en es una matriz fundamental. Entonces la soluci¶on buscada ser¶a de la forma ~y (t) = eA(t¡t0 )~c y como debe veri¯car ~y (t0 ) = ~y0 entonces ~y (t0 ) = I~c = ~c con lo que la soluci¶on buscada es ~y (t) = eA(t¡t0 ) ~y0 Desde luego, en estos casos, es mejor conocer la matriz exponencial. 3. Adem¶as, en el m¶etodo de variaci¶on de los par¶ametros para el sistema no homog¶eneo estudiado en el apartado 5.4.3 llegamos a que la soluci¶ on de ~y 0 = A ~y + ~b(t) ~y (t0 ) = ~y0 era ~y (t) = Y (t)Y ¡1 (t0 )~y0 + Y (t) 74 Z t t0 Y ¡1 (s)~b(s) ds donde Y (t) era una matriz fundamental. Ahora, si elegimos como matriz fundamental a Y (t) = eAt , tenemos [Y (t)]¡1 = e¡At y la f¶ormula se nos convierte en Z t At ¡At0 At ~y(t) = e e ~y0 + e e¡As~b(s) ds = = eA(t¡t0 ) ~y0 + Z t0 t eA(t¡s)~b(s) ds t0 mucho m¶as sencilla a la hora de efect¶ uar los c¶alculos. Obtenci¶ on de soluciones reales 5.5.7 Proposici¶ on.- Dado el sistema ~y 0 = A~y donde A es una matriz real de orden n, supongamos que ~y (t) es una soluci¶on compleja de dicho sistema. Entonces, si ~y (t) = ~y1 (t) + i ~y2 (t) con ~y1 ; ~y2 reales, se veri¯ca que ~y1 (t) e ~y2 (t) tambi¶en son soluciones del sistema. A dichas funciones vectoriales, las llamaremos parte real e imaginaria de ~y (t). En efecto, ~y1 0 (t) + i ~y2 0 (t) = ~y 0 (t) = A(~y1 (t) + i ~y2 (t)) = A~y1 (t) + i A~y2 (t) Igualando la parte real y la parte imaginaria, deducimos el resultado. Sea A es una matriz de coe¯cientes reales y de orden n; sabemos que su polinomio caracter¶³stico tiene n ra¶³ces complejas, y que si ¸ = a + i b es un valor propio complejo, su conjugado tambi¶en ser¶a un valor propio. Adem¶as, si ~v = ~v1 + i ~v2 es un vector propio generalizado asociado a ¸, con ~v1 ; ~v2 vectores reales, entonces el vector ~v1 ¡ i ~v2 , que llamaremos conjugado de ~v , y denotaremos ~vc , tambi¶en es un vector propio generalizado asociado a ¹̧ : En efecto, supongamos que para un cierto k (A ¡ ¸I)k ~v = ~0 Teniendo en cuenta las propiedades de la conjugaci¶ on k (A ¡ ¹̧ I)k ~vc = ~0 (A ¡ ¸I) ~vc = ~0 Entonces, las soluciones que se construyen a partir de los vectores propios generalizados ser¶an: ~y1 = e¸t [~v + t(A ¡ ¸I)~v + : : : + 75 tk¡1 (A ¡ ¸I)k¡1~v ] (k ¡ 1)! ¹ ~y2 = e¸t [~vc + t(A ¡ ¹̧ I)~vc + : : : + tk¡1 (A ¡ ¹̧ I)k¡1~vc ] (k ¡ 1)! siendo esta u ¶ltima conjugada de la anterior. Por tanto, la parte real y la parte imaginaria de la primera son dos soluciones reales del sistema. Son linealmente (~y1 + ~y2 ) (~y1 ¡ ~y2 ) independientes ya que corresponden a ; . (Recordemos que ~y1 e 2 2i ~y2 eran linealmente independientes.) Resumiendo, de las n soluciones complejas del sistema ~y 0 = A~y obtenemos n soluciones reales linealmente independientes. 76 5.6 Ejercicios 1. Calcular la soluci¶on general del sistema: à x0 (t) y 0 (t) ! = à a11 (t) a12 (t) a21 (t) a22 (t) !à x(t) y(t) ! + à t 0 ! sabiendo que las funciones à Á1 (t) = 1 0 ! ; Á2 (t) = à t 1 ! son soluciones particulares del sistema homog¶eneo. >Pueden determinarse los coe¯cientes aij (t) expl¶³citamente? 2. Resolver los sistemas siguientes: (a) 8 0 > > < x = 3x y 0 = 2x + 3y > > : z 0 = x + y + 3z (b) ( x0 = x + y y0 = x + y + t (c) ~y 0 (t) = A~y(t), donde A es la matriz: 0 1 1 0 0 B C B 0 1 ¡1 C @ A 0 1 1 con la condici¶on inicial ~y(0) = (1; 1; 1)t . 3. Resolver, utilizando la transformada de Laplace, los sistemas diferenciales siguientes: (a) 2x00 + y 0 ¡ 2x ¡ y = ¡ cos t ¡ sen t 2y 00 ¡ 2x0 + y ¡ 2x = 3 cos t + 4 sen t con las condiciones iniciales x(0) = 4, x0 (0) = 32 , y(0) = 6, y 0 (0) = 5. 77 (b) El sistema de ecuaciones diferenciales m1 x001 = ¡K1 (x1 ¡ l1 ) + K2 (x2 ¡ x1 ¡ l2 ) m2 x002 = ¡K2 (x2 ¡ x1 ¡ l2 ) + K1 (l1 + l2 ¡ x2 ) ) rige el comportamiento de los sistemas de masas en ausencia de fuerzas exteriores. Considerando que las masas m1 y m2 valen 1 Kg., las constantes el¶asticas K1 = 4N=m y K2 = 52 N=m y las longitudes l1 = 2m: y l2 = 3m:, calcular la posici¶on de las masas x1 (t), x2 (t), para t > 0, sabiendo que en el instante inicial las masas estaban en reposo en los puntos x1 (0) = 2 y x2 (0) = 4. 4. Demostrar que si Y~ (t) es una soluci¶on del sistema Y~ 0 (t) = AY~ (t), entonces Y~ 0 (t) es tambi¶en una soluci¶on, e igualmente las sucesivas derivadas del vector Y~ (t). De un sistema Y~ 0 (t) = AY~ (t), se sabe que dos soluciones son de la forma 0 1 0 1 t2 e®t B C B C C B C Á1 (t) = B @ 2t A ; Á2 (t) = @ 0 A 2 0 (a) Hallar el valor de ® para que sean soluciones del sistema Y~ 0 (t) = AY~ (t). (b) Hallar para dicho ®, la matriz A. 5. Si Á(t) es la matriz fundamental de un sistema de ecuaciones diferenciales ordinarias de primer orden, lineal y homog¶eneo y K es una matriz cualquiera, de la misma dimensi¶on que la matriz del sistema y no singular, demostrar que Á(t)K es otra matriz fundamental. >Y KÁ(t) es tambi¶en matriz fundamental?. 6. Resolver el sistema: 8 2 dy dx > > > + 3 + 3y = 0 > > < dt2 dt > > > d2 x > > : x(0) = 0 x0 (0) = 2 + 3y = te¡t dt2 7. Resolver los sistemas ~y 0 (t) = A ~y (t) , donde A es la matriz: 0 a) 1 ¡2 2 C 1 2 C A 2 2 1 B A=B @ ¡2 8. Resolver el sistema 0 1 0 B B b) A = B B @ 1 0 1 1 0 0 1 B C B C ct 0 B C B ~y = @ 2 1 ¡2 A ~y + @ 0 C A e 3 2 1 0 78 1 2 ¡1 0 0 C ¡1 2 0 0 C C 1 1 2 1 C A 1 ¡1 1 2 c6 =1