ECUACIONES INTEGRALES DE FREDHOLM: UNA INTRODUCCION Trabajo de Graduacion presentado a la Facultad de Ciencias, en cumplimiento parcial de los requisitos exigidos para optar al grado de Licenciado en Educacion Matematicas y Computacion. UNIVERSIDAD DE SANTIAGO DE CHILE SANTIAGO-CHILE 2005 ECUACIONES INTEGRALES DE FREDHOLM: UNA INTRODUCCION CALZADILLAS NIECHI DANIELA ARAYA BASTIAS - SEBASTIAN Este trajo de Graduacion fue elaborado bajo la supervision del profesor gua Dr. Carlos Lizama del Departamento de Matematica y Ciencias de la Computacion y ha sido aprobado por los miembros de la Comision Calicadora, de los , candidatos, Sra. Veronica Poblete y Dr. Humberto Prado. Profesor Informante Profesor Gua Profesor Informante Director Agradecimientos Al nalizar esta linda etapa de mi vida, miro hacia atras y veo a todas las personas que me acompa~naron en este lindo y difcil sendero, personas que por diferentes motivos no estan a mi lado y personas que siguen a mi lado, que han tenido paciencia y el amor de ense~narme y soportar mi difcil caracter, mi familia, mi novio Carlos y mi amigo Sebastian. Agradezco tambien a todos los profesores que me hicieron clases, ya que cada uno de ellos me ense~no diferentes cosas, en especial al profesor Carlos Lizama que con su paciencia y consejos nos ayudo a realizar nuestro trabajo. Tambien agradezco a la familia de Sebastian por los ricos almuerzos y onces que compartimos juntos. Por ultimo a Dios que me ha dado todo para poder estar en esta etapa. Daniela Araya Bastias Vayan siempre mis innitas gracias y alabanzas a mi Dios Jehova, el cual me dio apoyo, sustento y cuidado amoroso durante toda mi vida y en especial en mis a~nos de carrera universitaria. Mis queridos padres se merecen mas que yo el ttulo que obtengo, fueron participes activos en mi formacion y en mis valores, los amo a ustedes y a mis hermanos. Gracias Daniela por dejarme ser tu compa~nero de Trabajo, de Tesis y mi gran amiga, por darme apoyo y consuelo al momento apropiado. Profesor Lizama a usted le debemos la realizacion de este escrito, gracias por darnos el tiempo y de su propio esfuerzo junto con increble paciencia para que hoy cobre vida. Gracias, eternamente gracias, a todos. Sebastian Calzadillas Niechi Indice general 1. Ecuaciones de Fredholm 9 1.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.2. Nucleos Separables . . . . . . . . . . . . . . . . . . . . . . . . 11 1.2.1. Nucleos Separables . . . . . . . . . . . . . . . . . . . . 11 1.2.2. Nucleo Resolvente . . . . . . . . . . . . . . . . . . . . . 14 1.2.3. Condiciones sobre la Existencia de Soluciones . . . . . 18 1.2.4. Condiciones de Fredholm . . . . . . . . . . . . . . . . . 23 1.3. Nucleos No Separables . . . . . . . . . . . . . . . . . . . . . . 29 1.3.1. Normas . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.3.2. Metodo de Schmidt . . . . . . . . . . . . . . . . . . . . 32 1.3.3. Metodos de aproximacion por Nucleos Separables . . . 33 1.3.4. Iteracion por medio de Series de Neumann . . . . . . . 35 1.3.5. Convergencia Uniforme de la serie de Neumann . . . . 40 1.3.6. Condiciones para la Existencia y Unicidad de la solucion de la ecuacion con Nucleos Peque~nos . . . . . . . . 44 2. Teora de Fredholm en espacios de Lebesgue 48 2.1. Funciones Absolutamente Integrables . . . . . . . . . . . . . . 49 2.2. Funciones de Cuadrado Integrable . . . . . . . . . . . . . . . . 51 4 5 2.2.1. Descomposicion de Nucleos . . . . . . . . . . . . . . . 54 2.3. Funciones Propias . . . . . . . . . . . . . . . . . . . . . . . . . 58 2.4. Teora en Lp . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 6 Introducci on La teora de Ecuaciones Integrales fue ampliamente desarrollada por el matematico sueco Erik Ivar Fredholm quien desde temprana edad tuvo acceso a una de las mejores escuelas de Estocolmo, donde obtuvo con honores su Bachillerato el 16 de Mayo de 1885. Despues de un a~no de estudiar en el Royal Technological Institute ingresa a la Universidad de Uppsala donde obtiene el grado de Magister en Ciencias el 28 de Mayo de 1888. Para obtener el grado de Doctor en Ciencias trabaja bajo la tutela del profesor Mittag-Leer de la Universidad de Estocolmo, esto lo logra inscribiendo el Doctorado en Uppsala, pero realizando sus estudios en Estocolmo. Recibe el grado de Doctor el 31 de Mayo de 1898. Su tesis doctoral abordo el estudio de Ecuaciones Diferenciales Parciales que fue motivado por un problema de equilibrio en elasticidad dentro del area de la Fsica. Esto dio origen a una de las investigaciones mas trascendentales para la vida de Fredholm y para la matematica de la primera cuarta parte del siglo 20, a saber, Ecuaciones Integrales y la Teora Espectral. Esta fue utilizada por matematicos de renombre como Schwarz, Neumann y Poincare. Cabe destacar que Hilbert complemento el trabajo de Fredholm incluyendo la teora de valores propios para la Ecuacion Integral de Fredholm. El presente trabajo de titulacion comprende dos captulos, el primero se titula Ecuaciones de Fredholm el cual presenta las ecuaciones generales de Fredholm a resolver y analiza en profundidad la existencia de la(s) solucion(es) segun el tipo de nucleo que la compongan,estos son: nucleos separa- bles o nucleos no separables. Las secciones del captulo 1 son: 7 Introduccion; en esta se presentan las Ecuaciones Integrales de primer y segundo tipo, ademas se dene el Operador Integral involucrado en las ecuaciones anteriores, as como tambien se da un peque~no ejemplo particular que ilustra las funciones que pertenecen al rango de este operador. Caso Nucleos Separables; en esta seccion se estudia los nucleos separables y de estos se desprende un caso particular: nucleos resolventes. Ademas, se analizan las condiciones necesarias para la existencia de la(s) solucion(es) de la ecuacion matricial analoga de la Ecuacion Integral de segundo tipo, esta herramienta fundamental se encuentra en el Teorema 1.2.9. La seccion naliza con el estudio del Teorema Ecuacion de Fredholm y su contraparte para la Ecuacion Integral de segundo tipo. Caso Nucleos no Separables; en esta seccion se dene la funcion norma que es una herramienta necesaria para estudiar un nuevo metodo para resolver la Ecuacion Integral de segundo tipo, cuando esta se compone de un nucleo no separable. Este metodo recibe el nombre de metodo de Schmidt. Se muestran tres formas de lograr la descomposicion que propone. El metodo de Schmidt requiere de la serie de Neumann para encontrar el inverso de un operador (I cK0 ), por lo que ademas se estudian condiciones que debe poseer el operador cK0 para que dicha serie converja. Asimismo, se estudian las condiciones para la existencia y unicidad de las soluciones solo cuando los nucleos son peque~nos en el sentido de la norma que se considere. El captulo dos, Teora de Fredholm en espacios de Lebesgue, esta dirigido al estudio de las condiciones que debe cumplir el nucleo -el cual pertenece a estos tipos de espacios- que compone la ecuacion Integral de Fredholm de segundo tipo. Las secciones que componen este captulo son: 8 Funciones absolutamente Integrables; se dene el espacio de Lebesgue L1 y las funciones que lo comprenden, ademas buscamos una cota adecuada para kK uk y lograr as que la serie de Neumann converja. 0 Funciones de Cuadrado Integrable; se realiza un estudio analogo a la seccion anterior para el espacio de Lebesgue L2 . Por otra parte se analizan caractersticas especiales de este espacio que permiten descomponer nucleos, as como lo propone el metodo de Schmidt. Se presenta el Teorema de Fischer- Riesz que permite utilizar la Teora de Fredholm en espacios de vectores de dimension innita. Funciones Propias; en esta seccion se estudia el Teorema 2.3.2 que permite obtener una base ortonormal completa, de funciones propias, que es util para la descomposicion de nucleos que propone la seccion anterior. Teora en Lp ; aqu se entrega una generalizacion de todos los espacios de Lebesgue cuando 1 p < 1, y se dan las herramientas generales que per- miten utilizar Fredholm en estos espacios. Este trabajo de Titulacion esta escrito de tal manera que no profundiza en todos los topicos matematicos necesarios para el tema que se presenta, siguiendo el mismo espritu del libro de Pipkin [5] que fue la base de esta tesis. Cap tulo 1 Ecuaciones de Fredholm 1.1. Introducci on Denimos dos ecuaciones integrales que llamaremos ecuaciones de Fredholm de primer y segundo tipo respectivamente. Z b a k (x; y )u(y ) dy = f (x); u(x) = f (x) + Z b a k (x; y )u(y ) dy; x 2 [a; b] (1.1) x 2 [a; b]: (1.2) A la funcion k la llamamos nucleo y a la funcion f termino no homogeneo, ambas son funciones dadas. Nuestro objetivo consiste en encontrar una funcion u que satisfaga la correspondiente ecuacion. Denimos el operador K0 como (K0 u)(x) = Z b a k (x; y )u(y ) dy: Entonces (1.1) y (1.2) pueden reescribirse de la siguiente forma K0 u = f y u = f + K0 u: 9 (1.3) 10 Ejemplo 1.1.1. Considerar el nucleo k (x; y ) = ex+y y las ecuaciones Z 1 0 ex+y u(y ) dy = x Z u(x) = x + 1 0 (1.4) ex+y u(y ) dy: (1.5) Observamos que Z K0 u(x) = Z donde C = 0 1 0 1 e x +y x u(y ) dy = e Z 1 0 ey u(y ) dy = Cex ; ey u(y )dy . Por lo tanto el rango de K0 consiste en los multiplos de ex . Concluimos que la funcion f (x) = x en (1.4) no esta en el rango de K0 y por lo tanto la ecuacion (1.4) no tiene solucion. Por otro lado, observamos que, en contraste, (1.5) tiene solucion. En efecto, si Z u(x) = x + entonces u0 (x) = 1 + ex Z 0 1 1 0 ex+y u(y )dy ey u(y ) dy = 1 + (u(x) x) es una ecuacion diferenciable lineal de primer orden, cuya solucion, aplicando la Formula de Leibnitz, viene dada por u(x) = x + Cex ; donde C es una constante arbitraria. 11 1.2. N ucleos Separables Para resolver las ecuaciones propuestas nos dedicaremos al estudio de ecuaciones con diferentes tipos de nucleo. Revisaremos en primera instancia ecuaciones donde su operador tiene nucleo separable, posteriormente estudiaremos ecuaciones con operadores peque~nos. 1.2.1. N ucleos Separables Denicion 1.2.1. Decimos que un nucleo k(x; y) es separable si este se puede escribir como k (x; y ) = n X i=1 Ejemplo 1.2.2. El nucleo k(x; y) = xn x yn = xn y = n X i=1 1 fi (x)gi (y ): xn x yn es separable. En efecto, y + xn 2 y + xn 3 y 2 + xn 4 y 3 + ::: + xy n 2 + yn 1 xn i y i 1 : Supondremos que las funciones fi y gi en la denicion 1.2.1 son linealmente independientes. As el rango del operador K0 es n-dimensional y consiste en la combinacion lineal de funciones fi . Esta armacion se obtiene como sigue: (K0 u)(x) = = = Z b a Z b a n X i=1 k (x; y )u(y ) dy n X i=1 fi (x) ! fi (x)gi (y ) u(y ) dy Z b a gi (y )u(y ) dy: 12 Deniendo los coecientes ui como los productos internos Z b ui := hgi ; ui = a gi (y )u(y ) dy; obtenemos la combinacion lineal que buscabamos (K0 u)(x) = n X i=1 fi (x)ui : (1.6) Observacion 1.2.3. De acuerdo a lo anterior en la ecuacion del primer tipo, K0 u = h; (1.7) existe una restriccion para la existencia de su solucion, esto es, h(x) debe ser combinacion lineal de las funciones fi (x); ademas si esto ocurre, existen innitas soluciones que satisfacen la ecuacion. En el caso de la ecuacion de segundo tipo u(x) = h(x) + Z b a k (x; y )u(y ) dy; (1.8) utilizando (1.6), la ecuacion (1.8) tendra solucion n X u(x) = h(x) + j =1 fj (x)uj ; (1.9) donde solo resta encontrar los coecientes uj . Para esto denimos hi := hgi ; hi = Z b a gi (x)h(x) dx; (1.10) y Kij := hgi ; fj i = Z b a gi (x)fj (x) dx: Multiplicando (1.9) por gi (x) e integrando en [a; b] obtenemos Z b a gi (x)u(x) dx = Z b a gi (x)h(x) dx + n Z b X j =1 a gi (x)fj (x) dx uj (1.11) 13 o usando la notacion (1.10) y (1.11): ui = h i + n X j =1 Kij uj : (1.12) Obtenemos as un sistema de ecuaciones algebraicas para los coecientes ui . Este sistema lo escribimos como u = h + Ku: Analogamente, multiplicando (1.7) por gi (x) e integrando en [a; b]; obtenemos n X j =1 Kij uj = hi (1.13) que es equivalente a escribir Ku = h. Lo que hemos hecho muestra que si la ecuacion integral (1.2) tiene solucion el sistema algebraico (1.12) la tiene. Recprocamente, si (1.12) tiene solucion u y denimos u(x) por (1.9) entonces se verica que u(x) satisface la ecuacion integral (1.2). Ejemplo 1.2.4. Revisemos el siguiente problema Z u(x) = 1 + 0 1 (1 + x + y + xy ) 1=2 u(y ) dy: Escribimos k (x; y ) como k (x; y ) = (1 + x) 1=2 1=2 (1 + y ) ; y denimos f1 (x) := (1 + x) 1=2 y g1 (y ) := (1 + y ) 1=2 : Luego Z h1 = 0 1 p1 1+x p dx = 2( 2 Z 1) y K11 = 0 1 1 dx = ln 2: 1+x 14 p As obtenemos 2( 2 1) : u1 = h1 + K11 u1 = (1 2 ln 2) As, por (1.9) una solucion es p 2( 2 u(x) = 1 + p x + 1(1 1) : 2 ln 2) Observacion 1.2.5. El hecho de que las integrales (1.10) y (1.11) existan es esencial para resolver la ecuacion por nucleos separables. En efecto, veamos la siguiente ecuacion Z u(x) = h(x) + En este caso la integral 1 0 Z 1=2 (xy ) u(y ) dy: 1 dx; 0 x diverge y no podemos formar u(x) utilizando (1.12). Ahora bien, esto no K11 = 1 quiere decir que la ecuacion propuesta no tenga solucion. En efecto, una solucion de la ecuacion integral es: u(y ) = y h(x) = x para x 1=2 Z 0 1 py dy: 1.2.2. N ucleo Resolvente En esta seccion, reemplazaremos el operador K0 por operadores cK0 , donde c 2 K, con K cuerpo. Ahora, tenemos que el problema de hallar la solucion de la ecuacion u = h + cKu, que se puede reescribir como: (I Deniendo M := I cK )u = h: cK , donde I es la matriz identidad, obtenemos de manera equivalente el problema Mu = h: (1.14) 15 Denotaremos por D(c) al determinante de M .En lo que sigue supondremos que D(c) es distinto de cero, as M sera invertible. Sea C la matriz de los cofactores de M , ver [2], entonces tenemos que C t M = MC t = ID(c): Dado que existe M 1 , si denotamos M 1 := R(c) obtenemos que R(c) = C t =D(c); as la solucion para la ecuacion (1.14) sera u = R(c)h. Si fRij g son los coecientes de R(c), la ecuacion u = R(c)h es equivalente al siguiente sistema algebraico: uj = n X i=1 Rji hi : Podemos entonces reescribir la solucion de la ecuacion integral u = h + cK0 u como sigue: u(x) = h(x) + = h(x) + Ya que por (1.10) hi = Z b a n X cfj (x)uj j =1 " n X j =1 cfj (x) n X i=1 # Rji hi : gi (y )h(y ) dy , se obtiene u(x) = h(x) + = h(x) + = h(x) + n X " cfj (x) n X j =1 i=1 Z b n n XX c a j =1 i=1 " Z b n X n X a c j =1 i=1 Rji Z b a # gi (y )h(y ) dy Rji fj (x)gi (y )h(y ) dy # Rji fj (x)gi (y ) h(y ) dy: 16 Denicion 1.2.6. Al termino algebraico R(x; y ; c) := n X n X j =1 i=1 Rji (c)fj (x)gi (y ): lo llamaremos nucleo resolvente. Notemos que este es tambien un nucleo separable. As, la solucion para nuestra ecuacion integral (1.2) es u(x) = h(x) + Z b a cR(x; y ; c)h(y ) dy; (1.15) que es analoga al sistema lineal algebraico u = f + cR(c): (1.16) Observacion 1.2.7. Siguiendo la analoga en la notacion utilizada en (1.3) podemos escribir (1.15) como u = (I + cR0 )h; as el operador I + cR0 coincide justamente con el operador inverso de I cK0 ya que u = (I cK0 ) 1 h. Ejemplo 1.2.8. Para ilustrar como obtener un nucleo resolvente utilizaremos la siguiente ecuacion Z u(x) = h(x) + c con nucleo separable k (x; y ) = e x2 Identicamos a f1 (x) = e + 1 1 e x2 y 2 K11 = + 1 1 (1.17) x2 e y 2 . y a g1 (y ) = e de la matriz K es Z u(y ) dy; e 2x2 dx = y2 . Luego el coeciente, K11 1p p 2 ; 2 17 y as K = 1p p 2 . Luego 2 M = 1 2 = y entonces M para todo c distinto de p 1 = 2 1p p 2 2 p p c 2 ; 2 c p2 p ; c 2 2= . Por lo tanto el nucleo resolvente de la ecuacion (1.17) es 2 pp c 2 R(x; y ; c) = x2 e e y2 : 2 Ahora bien, si h(x) = x entonces la solucion para la ecuacion (1.17) es de acuerdo a (1.15) lo siguiente Z u(x) = x + + 1 1 = x+c = x+c = x: Pero >que ocurre si c = p c 2 2 2 pp c 2 2 pp c 2 2 pp c 2 2 e x2 e x2 x2 e Z + 1 1 e y2 e y2 y dy y dy 0 2= ?. La primera respuesta, aunque obvia, es que M no posee inversa y por tanto el nucleo resolvente R(x; y ; c) no existe. La segunda es que no podemos resolver la ecuacion por el metodo de nucleos separables, puesto que K11 = 1 y u1 = h1 + K11 u1 = 0 + u1 = u1 no obteniendo resultado alguno. Esto no quiere decir que la ecuacion (1.17) no tenga solucion. En efecto, para resolver la ecuacion podemos hacer lo siguiente: 18 Derivando (1.17) con respecto a x, y suponiendo que h es una funcion derivable, se tiene que u0 (x) = h0 (x) = h0 (x) Deniendo g (x) := u(x) x2 2xce Z + 1 e y2 1 h(x)): 2x(u(x) u(y ) dy h(x) obtenemos g 0 (x) = 2xg (x); cuya solucion viene dada por Rx g ( x) = e = e 0 2t dt+k x 2 +k = Ae x2 ; (A = ek ): Por lo tanto la solucion general de la ecuacion (1.17) es u(x) = h(x) + Ae x2 : Tal como en el caso anterior si h(x) = x, obtendremos la solucion u(x) = x + Ae x2 : 1.2.3. Condiciones sobre la Existencia de Soluciones Hasta el momento hemos estudiado como resolver las ecuaciones integrales (1.1) y (1.2), pero aun no nos hemos detenido en el analisis de la unicidad de las soluciones para tales ecuaciones. Dada la ecuacion Ku = f; 19 sin saber si esta tiene alguna solucion o no, especulamos la posibilidad de que pueda tener dos soluciones distintas u1 y u2 , entonces Ku1 = f Ku2 = f: Restando las ecuaciones se obtiene: K (u1 Denimos ' := u1 u2 ) = 0: u2 , obteniendo que la ecuacion K' = 0 tiene solucion con ' = 0. De manera analoga suponemos dos soluciones distintas para la ecuacion: u = f + Ku; obteniendo as la ecuacion K' = ', lo que equivale a (I K )' = 0. Deniendo A := I K se obtiene A' = 0; que es una ecuacion matricial. Luego A' = A1 '1 + A2 '2 + A3 '3 + : : : + An 'n = 0; (1.18) con An matriz, donde la n-esima columna coincide con la n-esima columna de la matriz A y el resto de las columnas se componen de 0, y 'n es la componente n-esima del vector '. Luego obtenemos una combinacion lineal de matrices An . 20 Teorema 1.2.9 (Existencia de Solucion). Sea K una matriz y f un vector. Si (I K )' = 0 solo para ' = 0, entonces existe una solucion de la ecuacion u = f + Ku: Demostracion. Por hipotesis Ker(I siones, ver[2], se tiene que (I de I K ) = 0. Por el teorema de las dimen- K ) es sobreyectiva y luego existe la inversa K , por tanto existe la solucion del sistema matricial (I K )u = f que viene dada por u = (I K ) 1 f: De esta manera si la ecuacion integral K0 ' = ' se satisface solo para ' = 0, entonces existe una solucion para la ecuacion integral u = f + K0 u. El teorema anterior muestra que para las ecuaciones lineales algebraicas o para las ecuaciones integrales que consideramos anteriormente, podemos demostrar existencia de solucion de una ecuacion probando previamente unicidad para otra. Ejemplo 1.2.10. Consideremos la ecuacion integral u = f + K0 u con nucleo k (x; y ) = X i fi (x)fi (y ): Entonces la ecuacion K0 ' = ' es igual a: Z b a esto es: k (x; y )'(y ) dy = '(x) Z b X a i ! fi (x)fi (y ) '(y ) dy = '(x) (1.19) 21 o XZ b a i fi (x)fi (y )'(y ) dy = '(x) que es equivalente a X i fi (x) Z b a fi (y )'(y ) dy = '(x) de donde obtenemos X i fi (x) Z b a fi (y )'(y ) dy '(x) = 0 que es lo mismo que X i f i ( x) Z b a fi (y )'(y ) dy + '(x) = 0: Multiplicando por ' e integrando se obtiene: Z bX a esto es, i Z bX a o i X i que es equivalente a fi (x)hfi ; 'i' dx + Z b a '2 dx = 0 fi (x)'hfi ; 'i dx + h'; 'i = 0 hfi; 'ihfi; 'i + h'; 'i = 0 X i hfi; 'i 2 + h'; 'i = 0: Como cada termino del lado izquierdo es positivo, se tiene que estos terminos deben ser iguales a 0, en particular h'; 'i = 0. Si ' es continua, entonces ' = 0 es la unica solucion de la ecuacion K0 ' = ', por tanto la ecuacion integral u = f + K0 u con nucleo (1.19) tendra una solucion. 22 Observacion 1.2.11. El producto interno entre vectores u y v 2 Rn sera denotado por el smbolo (u; v ); esto es (u; v ) = n X i=1 ui vi : Observacion 1.2.12. Si M es una matriz positiva denida, esto es u 6= 0; (u; Mu) > 0 si entonces la ecuacion Mu = f posee solucion. En efecto, si M' = 0 entonces la identidad ('; M') = 0 implica que ' = 0. Ocupando el teorema anterior obtenemos el resultado. Ejemplo 1.2.13. Como un caso concreto de la observacion anterior, veamos el siguiente problema: Consideremos una matriz M que tiene las componentes Mii = 2; Mi;i1 = 1 y los demas elementos son cero. Demostraremos que (x; Mx) = 0 solo cuando x = 0 de lo cual se puede inferir que la ecuacion Mu = f posee solucion. En efecto, primero escribimos (x; Mx) como suma de cuadrados como sigue: (x; Mx) = x1 (2x1 + x2 ) + x2 (x1 + 2x2 + x3 ) + x3 (x2 + 2x3 + x4 ) + x4 (x3 + 2x4 + x5 ) + : : : + xn 1 ( xn 2 + 2 xn 1 + xn ) + xn (xn 1 + 2xn ) + 2x21 + 2x1 x2 + 2x22 + 2x2 x3 + 2x23 + + : : : + 2xn 1 xn + 2x2n 1 + 2x2n = (2x21 + 2x22 + 2x1 x2 ) + (2x23 + 2x24 + 2x3 x4 ) + : : : + (2x2n 1 + 2x2n + 2xn 1 xn ) + + 2 x2 x 3 + 2 x4 x5 + 2 x6 x7 + : : : + 2 xn 2 xn 1 : 23 Veremos ahora que (x; Mx) = 0 solo cuando x = 0. En efecto, si (x; Mx) = 0 entonces (x; Mx) = (2x21 + 2x22 + 2x1 x2 ) + (2x23 + 2x24 + 2x3 x4 ) + : : : + (2x2n 1 + 2x2n + 2xn 1 xn ) + 2x2 x3 + 2x4 x5 + 2 x6 x7 + : : : + 2 xn 2 x n 1 =0 = (x21 + 2x1 x2 + x22 ) + (x23 + 2x3 x4 + x24 ) + : : : + (x2n 1 + 2xn 1 xn + x2n ) + x21 + (x22 + 2x2 x3 + x23 ) + (x24 + 2x4 x5 + x25 ) + (x26 + 2x6 x7 + x27 ) + : : : + + (x2n 2 + 2 xn 2 xn 1 + x2n 1 ) + x2n = 0 = (x1 + x2 )2 + (x3 + x4 )2 + : : : + (xn 1 + xn )2 + (x2 + x3 )2 + (x4 + x5 )2 + (x6 + x7 )2 + : : : + ( xn 2 + xn 1 )2 + x21 + x2n = 0: Esto implica que xi = 0 para todo i = 1; 2; : : : ; n, es decir, x = 0. 1.2.4. Condiciones de Fredholm Supongamos que M' = 0 tiene solucion con ' = 6 0. Entonces existe al menos un vector columna de la matriz M , que es linealmente dependiente. Por simplicidad, supongamos que solo hay un vector ' excepto sus multiplos m'. Por el teorema de la dimension el rango de M , Rang (M ), tiene dimension n 1. Esto implica que existe un vector no nulo tal que M = 0; es decir, ( ; Mi ) = 0 para cada i = 1; : : : ; n: 24 Como Mi son las las de la matriz M t , lo anterior se puede reescribir como M t = 0: En resumen se tiene: M' = 0 (' 6= 0) si y solo si M t = 0 ( = 6 0): (1.20) El resultado es que si M' = 0 tiene solucion distinta de cero entonces Mu = f puede tener solucion y esta no es unica. De hecho, si hay alguna solucion u0 , entonces la solucion general es u = u0 + m'; donde m es una constante arbitraria; ya que por el teorema de la dimension, Ker(M ) tiene dimension igual a uno. Si hay muchas soluciones linealmente independientes 'i (i = 1; 2; :::; k ) de la ecuacion M' = 0 entonces hay muchas soluciones linealmente independientes i de la ecuacion M t = 0. Entonces Mu = f posee solucion si y solo si f satisface las condiciones de Fredholm: ( i ; f ) = 0: Si tiene solucion, digamos u0 , entonces la solucion general es: u = u0 + k X I =1 mi 'i con k < n donde los coecientes mi son arbitrarios. 25 Teorema 1.2.14 (Condicion de Fredholm). La ecuacion Mu = f tiene solucion si y solo si ( ; f ) = 0, para cada 2 Ker(M t): Demostracion. Supongamos que la ecuacion Mu = f tiene solucion u, entonces ( ; f ) = ( ; Mu) = (M t ; u) = (0; u) = 0: Recprocamente, supongamos que ( ; f ) = 0 para cada 2 Ker(M t ): Entonces f pertenece Ker(M t )? = Ran(M ). As f pertenece al rango de M , es decir, existe un u tal que Mu = f: Observacion 1.2.15. El teorema (1.2.14) tiene una contraparte inmediata para la ecuacion integral (1.2) donde h ; fi = Z b (x)f (x) dx: a Denicion 1.2.16. Denimos el operador integral transpuesto como t (K0 u)(x) = Z b a k t (x; y )u(y ) dy: Observacion 1.2.17. Se tiene que kt (x; y) = k(y; x). En efecto: si hu; K0 vi = hK t u; vi para cada v, entonces 0 Z b a u(x)(K0 v )(x) dx = Z b a (K0t u)(x)v (x) dx: (1.21) Ahora bien; Z b a u(x)(K0 v )(x) dx = Z b a u(x) Z b a k (x; y )v (y ) dy dx = Z bZ b a a u(x)k (x; y )v (y ) dy dx: Si intercambiamos las variables x por y, y las variables y por x y aplicando el teorema de Fubini obtenemos Z b a u(x)(K0 v )(x) dx = Z bZ b a a k (y; x)u(y )v (x) dy dx: 26 As, de (1.21) tenemos Z bZ b a a k (y; x)u(y )v (x) dy dx = Z b a (K0t u)(x)v (x) dx: Luego para cada v se tiene que Z b Z b a a t k (y; x)u(y ) dy (K0 u)(x) v (x) dx = 0; de donde se obtiene que t (K0 u)(x) = Z b k (y; x)u(y ) dy; a es el operador integral K0t con nucleo k t (x; y ) = k (y; x). Para ilustrar el Teorema (1.2.14) (ver observacion (1.2.15)), consideremos el siguiente ejemplo. Ejemplo 1.2.18. Veamos la siguiente ecuacion con nucleo separable: Z u(x) = f (x) + 2 1 0 (xy )1=2 u(y ) dy: (1.22) Ya que la ecuacion es de la forma M0 u = f con M0 = I K0 debemos analizar, de acuerdo al Teorema 1.2.14, Ker(I K0t ). Supongamos que (1.22) tiene dos soluciones y denotemos su diferencia por ', entonces Z '(x) = 2 0 1 (xy )1=2 '(y )dy (1.23) = cx1=2 Z donde c = 2 0 1 y 1=2 '(y ) dy: Esto muestra que existe una solucion distinta de cero de la ecuacion (I K0 )u = 0. Notese que lo anterior implica que hay tambien una solucion distinta a cero para la ecuacion Z (x) = 0 1 (y )k (x; y ) dy: 27 En efecto: Z ( x) = 1 0 Z = 1 k (x; y ) (y ) dy 0 Z = k t (x; y ) (y ) dy 0 Z = 1 (yx)1=2 (y ) dy 1 0 k (x; y ) (y ) dy: Como el operador K0 es simetrico, esto es k (x; y ) = k (y; x), entonces (x) = x1=2 es tambien solucion de (1.22) (ver (1.19)). Finalmente concluimos del Teorema 1.2.14 (ver observacion 1.2.15) que la ecuacion tiene solucion si y solo si ( ; f ) = 0, es decir Z 1 0 Z f (x) (x) dx = 0 o 1 0 f (x)x1=2 dx = 0: Observacion 1.2.19. Si resolvemos directamente la ecuacion (1.22), podemos ver como se origina la condicion de Fredholm. En efecto, la ecuacion (1.22) es equivalente a u(x) f (x) p = 2 x Z 1 0 y 1=2 u(y ) dy: Ahora, derivando 1 1 u0 (x) = f 0 (x) + 2 p 2 x esto es: o 1 u0 (x) = f 0 (x) + p x u0 (x) = f 0 (x) + Z 1 0 y 1=2 u(y ) dy u(x) f (x) p ; 2 x 1 (u(x) 2x f (x)); 28 lo que es equivalente a: u0 (x) Sea g (x) = u(x) 1 (u(x) 2x f 0 (x) = f (x), entonces se obtiene: 1 g (x) 2x g 0 ( x) = de donde px: g ( x) = Luego u(x) = px + f (x) es candidato a la solucion de (1.21). Ahora, para que se cumpla la igualdad (1.21) se debe tener px + f (x) = f (x) + 2 Z 1 0 esto es px + f (x) = f (x) + 2px Z p (xy )1=2 ( y + f (y )) dy 1 0 o f (x)): Z y dy + 0 1 pyf (y) dy ; px + f (x) = f (x) + 2px 1 + Z pyf (y) dy 1 2 lo que es igual a 0 px = px + 2px Z pyf (y) dy 1 0 o Z p pyf (y) dy: 0=2 x 1 0 Esto implica que Z 0 1 pyf (y) dy = 0 o equivalentemente Z 0 1 pyf (y) dy = Z 0 1 (y )f (y ) dy = ( ; f ) = 0; de donde se obtiene la condicion de Fredholm. 29 1.3. N ucleos No Separables 1.3.1. Normas Denicion 1.3.1. Si en un espacio vectorial E se puede denir una funcion k k que cumple con las condiciones 1. kvk > 0 si v 6= 0 2. kcvk = jcjkvk 3. ku + vk kuk + kvk, para todo u; v funcion 2E yc 2 K, entonces el espacio E k k la llamamos norma. se dice normado y la Para un vector v 2 Rn denimos la expresion kvk = miax jvij: La cual puede vericarse que es una norma, de acuerdo a la denicion anterior. Para denir la norma de una matriz K , realicemos lo siguiente: Sea B (K ) un numero cualquiera, calculado sobre las componentes de K , tal que kKvk B (K )kvk para todo v . Llamamos B (K ) un coeciente de acotamiento o simplemente cota. La mejor eleccion de B (K ) es que sea lo sucientemente peque~no para que cumpla con la desigualdad. Llamamos a tal B (K ) la norma de K (de 30 hecho, se puede demostrar que lo es cuando se encuentra una representacion de este numero) y la denotamos por kK k. Entonces: kKvk kK kkvk; con la igualdad para algun v 6= 0. Proposicion 1.3.2. La norma de la matriz K es: kK k = miax X j jKij j: Demostracion. Usando la desigualdad triangular obtenemos lo siguiente: j(Kv)ij = X Kij vj j X j jKij jjvj j: Como kv k es mas grande que cada uno de los valores jvj j, obtenemos j(Kv)ij Ri(K )kvk; donde Ri (K ) = X j jKij j: Nos referimos a Ri (K ) como suma absoluta de la la. Entonces kKvk = max j(Kv)ij kvk(max Ri): X X jKij j: Para probar que kK k = max jKij j i i j j necesitamos ver que un vector v cumpla con la igualdad: kKv k = Ri (K )kv k. Esto prueba que la kK k max Sea m el numero de la la con la suma absoluta mas grande. Denimos la funcion signo por sgn(x) := 8 > > > < > > > : 1; x > 0; 0; x = 0; 1; x < 0. 31 Tomando vj = sgn(Kmj ) se tiene kv k = 1 y (Kv )m = X j jKmj j entonces kKv k = Rm (K ), y podemos concluir que: kK k = miax Observacion 1.3.3. Para cada n X j jKij j: 2 N, kK nk kK kn. En efecto: Para cualquier coeciente de acotamiento B (K ), se tiene: kKKvk B (K )kKvk B (K )B (K )kvk: Por otra parte: kKKvk B (KK )kvk: As kKK k kK kkK k: De lo anterior obtenemos, por induccion kK nk kK kn: Observar que en general kK n k es estrictamente mas peque~na que kK kn como veremos en el ejemplo (1.3.14). Proposicion 1.3.4. El conjunto de todas las funciones u tales que kuk = sup ju(x)j < 1; x es un espacio normado, con norma kuk. 32 Demostracion. Es claro que kuk > 0 y que kcv k = jcjkv k. Ademas como sup ju(x) + v (x)j sup ju(x)j + sup jv(x)j se obtiene la condicion (3) para que kuk sea una norma. Denicion 1.3.5. La norma asociada al operador integral K0 es kK k = sup 0 Z b x a jk(x; y)j dy El cual es el analogo al maximo absoluto de la la en caso que K0 fuese una matriz. 1.3.2. Metodo de Schmidt Denicion 1.3.6. Diremos que el operador K0 denido en (1.3) es peque~no si su norma es menor que 1 y, en tal caso al correspondiente nucleo le llamaremos nucleo peque~no. Supongamos que un nucleo k (x; y ) se puede escribir como k (x; y ) = s(x; y ) + e(x; y ) (1.24) donde s es separable y donde e es peque~no, entonces la ecuacion integral de segundo tipo (1.2) puede ser resuelta como sigue: Siguiendo la analoga en la notacion (1.3) la ecuacion reescrita es u = h + S0 u + E0 u esto es, (I E0 )u = h + S0 u: Asumimos, por el momento, que podemos encontrar el inverso de (I E0 ) 1 . Entonces se tiene: u = h + S0 u (1.25) 33 donde h = (I E0 ) 1 h, S0 = (I E0 ) 1 S0 . Como s es un nucleo separable, entonces s tiene la siguiente forma: s(x; y ) = Luego n X i=1 fi (x)gi (y ): n X s (x; y ) = fi (x)gi (y ); donde f = (I i i=1 E ) fi . 1 Por lo tanto, para resolver la ecuacion integral (1.2) inicial, solo tenemos que resolver la ecuacion separable (1.25). Observacion 1.3.7. Si kE0 k < 1, entonces la inversa de (I E0 ) puede ser calculada formalmente por medio de series. Estas series son las llamadas series de Neumann : (I E0 ) 1 = I + E0 + E02 + E03 + ::: 1.3.3. Metodos de aproximaci on por N ucleos Separables Generalmente el nucleo de la ecuacion (1.1) no es un nucleo separable, por ende esta ecuacion no podra ser resuelta utilizando la Teora de Fredholm. A continuacion mostraremos, sin ser rigurosos, tres diferentes metodos para aproximar estos tipos de nucleos por nucleos separables. Aproximacion por Punto Medio. Sea [0,1] el intervalo de integracion, y lo dividimos en n partes iguales formando una particion P dada por: m 1 m ; n n con m = 1; : : : ; n: 34 Denimos 1 2 km (x) = k x; m Consideremos la funcion um (y ) = 8 < : 1; y 2 0; y 2 = m 1 n ; m 1 n ; 1 : n m ; n m . n As, el nucleo k (x; y ) lo aproximamos, puntualmente en su segunda variable y , por k (x; y ) = n X m=1 km (x)um (y ) + e(x; y ) que es un nucleo separable mas uno peque^no en algun sentido. De esta manera la ecuacion de segundo tipo la podemos reescribir como Z u(x) = h(x) + = h(x) + n X 1 m=1 0 n X m=1 km (x)um (y )u(y ) dy km (x) Z (m=n) (m 1)=n u(y ) dy: Aproximacion por Coecientes de Fourier. Supongamos que k (x; y ) esta denido en [ ; ] [ ; ] y denamos la funcion um (y ) = eimy y los coecientes de Fourier de la funcion y como 1 km (x) = 2 Z k (x; y )e imy dy: Podemos aproximar k (x; y ) por el nucleo separable k (x; y ) = n X m= n km (x)um (y ) + e(x; y ) ! k(x; y) 35 Notemos que la aproximacion obtenida es diferenciable en y y se tiene que la ecuacion de segundo tipo se puede escribir como Z u(x) = h(x) + = h(x) + 1 n X kk (x)eimy u(y ) dy 0 n Z n X 1 n 2 k (x; s)e ims Z ds 0 1 eimy u(y ) dy: Detalles sobre el sentido formal de la aproximacion indicada anteriormente se estudiara en el capitulo siguiente. Aproximacion por Polinomios Sea k (x; y ) un nucleo continuo y [0; 1] el intervalo de integracion, por el teorema de Stone-Weierstrass existe un polinomio p(x; y ; ") tal que para cualquier 0 x; y 1 se tiene que jk(x; y) p(x; y ; ")j < ": Esto es, p es una aproxi- macion separable para el nucleo k (x; y ), y p tiene la siguiente forma p(x; y ; ") = X n kn (x; ")y n ; donde las funciones kn son polinomios. Luego, podemos escribir la ecuacion de segundo tipo como Z u(x) = h(x) + = h(x) + 0 1 X n p(x; y ; ")u(y ) dy Z kn (x; ") 0 1 y n u(y ) dy: Finalmente, utilizando cualquiera de los metodos u otros, segun sea la ecuacion integral que se tenga, el problema se reduce a un sistema de ecuaciones algebraicas tal como hemos estudiado anteriormente. 1.3.4. Iteraci on por medio de Series de Neumann Sea c 2 C y K una matriz. A n de resolver la ecuacion u = f + cKu podemos realizar lo siguiente. Se dene una sucesion (un ) de manera recursiva 36 a traves de la formula un+1 = f + cKun ; (1.26) donde u0 es arbitrario. Por la igualdad (1.26) obtenemos un = f + cKun 1 = f + cK (f + cKun 2 ) = f + cKf + c2 k 2 un 2 = f + cKf + c2 K 2 (f + cKun 3 ) = f + cKf + c2 K 2 f + c3 K 3 un 3 ; y de forma sucesiva obtenemos: un = f + cKf + c2 K 2 f + c3 K 3 f + ::: + cn 1 K n 1 f + cn K n u0 : Lo anterior sugiere que: u=f+ 1 X n=1 cn K n f: (1.27) Observamos que el parametro c puede variar el tama~no de la matriz K . Nos preguntamos: >Cuan peque~no debe ser c para que la serie anterior sea convergente? Proposicion 1.3.8. La serie 1. Demostracion. Sea SN = kf k < 1 se tiene kSM donde kf k SN k = M X n=N 1 X n=0 N X1 n=0 cn K n f es convergente si kcK k < 1 y kf k < cn K n f . Como kcK k < 1, con N < M , y M X n n c K f n =N M X n=N jcj kK kkf k n jcjnkK kn ! 0, cuando N n M X n=N jcjnkK knkf k; y M tienden a innito. Ya que (SN ) es una sucesion de Cauchy en el espacio vectorial de la matrices, el 1 X cual asumimos completo con la norma dada, se obtiene que cn K n f es convergente. n=0 37 Denicion 1.3.9. Llamamos serie de Neumann a la serie obtenida en la Proposicion 1.3.8. En la siguiente proposicion demostraremos que (I cK ) 1 . 1 X n=0 cn K n coincide con Proposicion 1.3.10. Si kcK k < 1 entonces (I cK ) 1 X n=0 cn K n = Demostracion. En efecto 1 X (I cK ) cn K n = n=0 1 X 1 X n=0 cn K n (I cn K n (I n=0 n c K n=0 = I+ Analogamente 1 X 1 X n=1 n 1 X n=0 cn K n cK ) = I: cn+1 K n+1 1 X n=0 cn+1 K n+1 = I: cK ) = I: Observacion 1.3.11. La Matriz R(c) asociada al operador que posee Nucleo Resolvente (ver Subseccion 1.2.2) correspondiente a la solucion de la ecuacion 1 X cn K n . En efecto: De (1.27) obtenemos u = f + cKu coincide con la serie n=0 u = f+ 1 X n=1 ! cn K n f = I + 1 X n=1 ! cn K n f Por otra parte, de (1.16) se tiene que u = (I + cR(c))f , luego cR(c) coincide 1 X exactamente con la serie cn K n . n=1 38 Observacion 1.3.12. La condicion de que jcjkK k < 1 en muchos casos no se tiene, sin embargo la serie de Neumann aun converge si reemplazamos la condicion anterior por jcj kK k < 1: 2 2 En efecto, como kK k kK 2 k obtenemos la siguiente desigualdad 1 X n=1 jcj kK k kf k n n 1 X n=1 jcj nkK knkf k: 2 2 As la serie de la izquierda tambien converge cuando jcj2 kK 2 k < 1: Lo anterior se resume en la siguiente proposicion. Proposicion 1.3.13. Para que la serie de Neumann sea convergente es suciente que jcjnkK nk < 1 para algun n 2 N: Demostracion. Es claro que si kcn K n k < 1 para algun n 2 N entonces se tiene que la serie de Neumann es convergente, solo basta tomar la demostracion en la observacion anterior y cambiar la potencia de kcK k. Ejemplo 1.3.14. Analicemos el siguiente ejemplo, dadas las matrices 0 K=@ 0 2 1 3 1 A; 0 K2 = @ 2 3 6 11 1 A obtenemos kK k = j 2j + j3j = 5 y kK 2 k = j6j + j11j = 17, si jcjkK k < 1 1 1 entonces jcj < = 0; 2 pero si jcj2 kK 2 k < 1 entonces jcj < p 0; 24::: 5 17 De esto concluimos que si jcj2 kK 2 k < 1 y kK 2 k < kK k2 entonces obtenemos una mejor cota para c, esto pues jcjkK k = 2 1 2 < 1: 39 Ejemplo 1.3.15. Analizaremos las condiciones para que la matriz 0 1 1 K=@ 0 1 1 A posea serie de Neumann convergente. Vemos que 0 1 n Kn = @ 0 1 1 A de esto obtenemos por la Proposicion 1.3.10 0 (I cK ) 1 = B B B @ 1+ 1 X n=1 c n 0 1 X n nc n=1 1 X cn 1+ 1 C C C; A n=1 siempre que jcj < 12 , luego 0 (I cK ) 1 B =@ 1 1 c (1 0 1 c 1 1 c)2 C A: c Esto ultimo lo podemos comparar con la condicion suciente kcn K n k < 1 para que la serie anterior converja. En efecto, usando Proposicion 1.3.2 kcnK nk = jcnjkK nk = jcnj(n + 1) < 1; entonces jcj < pn n1+ 1 : Observar que si n = 1 se tiene jcj < 0; 5 como antes. Ahora, si n = 2 se tiene jcj < 1= p 3 0; 58 que es mejor que la anterior y as sucesivamente. 40 Ejemplo 1.3.16. Se dene k k1 de la matriz K como sigue kK k 1 = max es facil vericar que kk 1 j X i jKij j; es norma. Ahora comparemos las cotas encontradas a traves de suponer que jcjkK k1 < 1 y jcj2 kK 2 k1 < 1. Dada la matriz 0 K=@ 0 2 1 3 1 A; obtenemos kK k1 = 4 y kK 2 k1 = 14: Entonces se tiene que jcj < 0; 25 y jcj < 0; 2673 : : : ; respectivamente. De esto podemos concluir que se obtiene una mejor cota utilizando la condicion jcj2 kK 2 k1 < 1 ya que el rango de valores de c se amplia y por ende el radio de convergencia de la serie de Neumann tambien lo hace. 1.3.5. Convergencia Uniforme de la serie de Neumann A continuacion estudiaremos la solucion de la ecuacion integral u = f + cK0 u, donde K0 es el operador denido en (1.1.3) para tal efecto utilizaremos las normas denidas en Deniciones 1.3.4 y 1.3.5, llamadas tambien normas de convergencia uniforme. Anteriormente observamos que, para que la serie de Neumann converja, es suciente que jcjkK k < 1,(ver Proposicion 1.3.8) en tal caso no se ocuparon las propiedades particulares de la norma asociada a una matriz. Proposicion 1.3.17. Si la norma de f es nita y ademas jcjkK0 k < 1, entonces la solucion u de la ecuacion (1.2) existe. 41 Demostracion. De acuerdo a la sucesion denida en (1.26), con K0 en lugar de K , tenemos que para cada " > 0; la sucesion un := k um n X j =0 cj K j f satisface un k < "; para cada m > n: Ya que el espacio vectorial de las funciones con la norma denida es completo (ver[4]), entonces la serie de Cauchy es una serie convergente, es decir, existe una funcion u tal que kun uk ! 0; cuando n ! 1 en particular esto signica que un converge uniformemente a la solucion u. En particular se tiene el siguiente resultado. Corolario 1.3.18. Si jcjn kK n k < 1 para algun n parcial un = n X 2 N, entonces la suma cn K n f converge uniformemente a la solucion lmite u. k=1 Ejemplo 1.3.19. Para la ecuacion: u(x) = f (x) + c Z 0 1 k (x; y )u(y ) dy anali- zamos dos casos en que la norma del operador asociado a K0 es menor que 1 y, as la serie de Neumann converge uniformemente a la solucion u. 1. k (x; y ) = sin(xy ): Como 0 < x < 1 entonces xy < y de donde sin(xy ) < sin(y ). De esto se tiene que: kK k = sup 0 x Z 0 1 j sin(xy)j dy Z 0 1 sin y dy = 1 cos(1) < 1: Concluimos que la serie de Neumann converge uniformemente a u. 42 2. k (x; y ) = 2jx y j. En primer lugar calculamos la norma de K0 : Z kK k = sup 0 x 1 0 2jx Z sup 2 x 1 0 y j dy Z jxj dy + 0 1 jyj dy = sup 2x + 1 3: x Ya que la norma no es directamente menor que 1, calcularemos la norma de K02 : kK k 2 0 Z = sup x 1 Z 0 Z = sup 4 x 0 1 0 1 jx 4jx z jjz zj Z z 0 y j dz dy jz y j dy + Z z 1 jz y j dy dz; donde Z z 0 jz yj dy + Z 1 z jz yj dy = Z z 0 Z z y dy + 1 z 1 z + y dy = z + + z 2 ; 2 por lo tanto: kK k 2 0 Z = = = = jx zj z + 21 + z2 sup 4 x 0 Z z Z x 1 1 2 2 z + + z dz (x z ) z + + z dz + (z x) 2 2 x 0 2 3 4 2 3 4 3x 2x + x 1 2x + 3 x 2x + x sup 4 + 2 6 x 2 3 4 1 2x + 3 x 2x + x 2 sup 4 = : 6 3 x 1 De lo anterior tenemos que kK02 k < 1 lo que nos asegura la convergencia uniforme de la serie de Neumann a u. Ejemplo 1.3.20. Dada la ecuacion Z u(x) = f (x) + c 0 1 ex y u(y ) dy 43 encontraremos los valores de c para que la serie de Neumann converja. Para esto resolvemos la ecuacion directamente. Derivando con respecto a x obtenemos: u0 (x) = f 0 (x) + cex Deniendo g (x) := u(x) Z 0 1 e y u(y ) dy = f 0 (x) + u(x) f (x): f (x) obtenemos la ecuacion: g 0 (x) = g (x): As la solucion para la ecuacion inicial es u(x) = ex + f (x). 1 X Comparando esta con la solucion u = f + cn K0n f; desprendemos que 1 y 1 = e f (x) 1 X n=1 cn ; por tanto para que esta serie converja se debe tener que jcj < 1. Ahora bien aplicando la denicion de norma sobre el operador integral K0 se tiene que: kK k = sup 0 x Z 1 0 je j dy = sup e [ x y x x y x e ] = sup e 1 0 x 1 1 e 1 0; 3679. e Al comparar las dos formas que hemos utilizado para encontrar el valor de c, As kK0 k < e. Suponiendo jcjkK0 k < 1 se tiene que jcj < observamos que no hay una diferencia signicativa para este valor, es decir, se conserva la condicion de que jcj < 1, para que la ecuacion inicial posea solucion. Observacion 1.3.21. . 1. Si f es una funcion continua y K0 u es continua para cualquier u entonces la solucion u es continua. 44 2. Si K0 es un operador continuo y f es un funcion discontinua entonces u f = K0 u es continua, es decir, u tiene las mismas discontinuidades que f . Teorema 1.3.22. Si la norma de f es nita y la norma de K0 es menor que 1 entonces la ecuacion integral u = f + K0 u tiene solucion cuya norma es tambien nita. Demostracion. Ya que kK0 k < 1, la serie de Neumann dene el operador inverso (I K0 ) 1 = I + K0 + K02 + K03 + ::: Ahora si la norma de f es nita, la ecuacion u = f + K0 u tiene solucion u = (I K0 ) 1 f donde la norma de u es tambien nita, ya que kuk k(I K0 ) 1 kkf k < 1: 1.3.6. Condiciones para la Existencia y Unicidad de la soluci on de la ecuacion con N ucleos Peque~ nos La notacion u = (I K0 ) 1 f pareciera implicar que existe una unica solucion para la ecuacion u = f + K0 u, pero no necesariamente es el caso. Recordemos que la ecuacion K' = ' es equivalente a la ecuacion u = f + Ku que tiene soluciones u1 y u2 con ' = u1 u2 , (u1 6= u2 ). Con respecto a esta ultima observacion, tenemos el siguiente teorema 45 Teorema 1.3.23. Si la norma del operador K0 es menor que uno y la norma de ' es nita, entonces la ecuacion u = f + K0 u tiene unica solucion. Demostracion. Supongamos que la ecuacion u = f + K0 u tiene dos soluciones digamos u1 , u2 con u1 6= u2 entonces restando, se obtiene la ecuacion ' 6= 0: K' = '; Ahora, aplicando la norma a la ecuacion anterior y usando el hecho que kK k < 1 obtenemos: 0 k'k = kK 'k kK kk'k < k'k 0 0 donde se tiene una contradiccion que nace del supuesto u1 6= u2 ; as se tiene que ' = 0, por tanto u1 = u2 . As, la ecuacion u = f + Ku tiene una unica solucion. Veamos el siguiente ejemplo que ilustra la importancia de que la norma de ' sea nita. Dado el nucleo k (x; y ) := 8 < : yx y ; 0 y x 1 0x<y1 0; Calculamos la norma de K0 : kK k 0 Z = sup x = sup x Dado que x por: 0 1 Z x 0 jk(x; y)j dy = sup Z x x yx y 0 jk(x; y)j dy + Z x 1 jk(x; y)j dy dy: y 1 con y 0 entonces podemos acotar la integral anterior kK k sup 0 x Z x 0 y dy = 1 < 1: 2 46 As, kK0 k < 1. Sea '(x) = xx 1 entonces su norma es k'k = sup jxx j = 1: 1 x Como la norma de ' es divergente la ecuacion u = f + K0 u asociada al problema posee mas de una solucion, incluso cuando kK0 k < 1. Anteriormente vimos que si k (x; y ) = s(x; y )+ e(x; y ) donde s(x; y ) es separable y e(x; y ) es peque~no, entonces la ecuacion u = f + K0 u puede ser reducida a un sistema de ecuaciones lineales algebraicas. De esto se desprende que el espacio de las funciones con norma nita kuk < 1 son en cierto sentido `cercanamente'de dimension nita. A n de precisar como podemos ampliar la clase de nucleos k (x; y ) procederemos como sigue: Escribimos k (x; y ) = c(x; y ) + e1 (x; y ) donde c(x; y ) es una funcion continua en un conjunto cerrado [a; b] [a; b]. Teorema 1.3.24. Sea k(x; y) = c(x; y) + e1 (x; y) con c funcion continua y e1 peque~no, entonces el nucleo anterior se puede escribir como k (x; y ) = s(x; y ) + e(x; y ) donde s es separable y e es peque~no. Demostracion. . Sean K0 (u)(x) = C0 (u)(x) = Z b a Z b a k (x; y )u(y ) dy; c(x; y )u(y ) dy y E1 (u)(x) = continua en [a; b] [a; b]; se tiene que kC k = sup 0 x Z b a Z b a e1 (x; y )u(y ) dy: Ya que c es jc(x; y)j dy < 1: 47 Luego: kK k = kC 0 0 + E1 k kC0 k + kE1 k < 1: Por otra parte la continuidad de c implica, por el Teorema de aproximacion de Stone Weierstrass ver [1], que c(x; y ) puede ser aproximada uniformemente por un polinomio p(x; y ), esto es: c(x; y ) = p(x; y ) + e2 (x; y ) donde e2 (x; y ) se elige de manera que kE2 k < 1 kE k. 1 Sea e(x; y ) = e1 (x; y ) + e2 (x; y ) entonces podemos escribir h(x; y ) = c(x; y ) + e1 (x; y ) = p(x; y ) + e1 (x; y ) + e2 (x; y ) = p(x; y ) + e(x; y ); donde kE k = kE1 + E2 k kE1 k + kE2 k < 1 y p(x; y ) es separable. El teorema anterior nos sirve para ampliar los nucleos de la forma k = c + e1 que cumplan con las condiciones de la teora de Fredholm. Observacion 1.3.25. Existe la posibilidad de que e1 posea innitas discontinuidades en su dominio, pero aun as kE1 k < 1. Con respecto a la observacion anterior, veamos el siguiente ejemplo Sean y k (x; y ) = jx c(x; y ) = (jx entonces e1 (x; y ) = k (x; y ) dominio, pero kE1 k < 1. yj 1 2 y j + ") 1 2 c(x; y ) tiene innitas discontinuidades en su Cap tulo 2 Teor a de Fredholm en espacios de Lebesgue Existen funciones y operadores cuyas normas (dadas en Proposicion 1.3.4 y Denicion 1.3.5, respectivamente) divergen, con lo cual los metodos anteriormente presentados no pueden ser utilizados. Es por esto que el presente captulo tendra como motivacion encontrar nuevas normas tales que la teora de Fredholm siga siendo valida, ampliando la gama de terminos nohomogeneos y nucleos que puedan ser utilizados para resolver una ecuacion del segundo tipo. La denicion de integral que utilizaremos (a menos que se indique lo contrario) sera la integral de Lebesgue, dada su generalidad y propiedades que la integral de Riemann no posee. 48 49 2.1. Funciones Absolutamente Integrables Denicion 2.1.1. Una funcion u se dice absolutamente integrable en [a; b] si kuk 1 = Z b a ju(x)j dx < 1: (2.1) Observacion 2.1.2. Se verica que kuk1 = 0 s y solo s u(x) = 0 para cada x 2 [a; b] que no este en un conjunto de medida nula. Se denota por L1 [a; b] al espacio vectorial de todas las funciones que cumplan con la Denicion 2.1.1, donde u = v s y solo s u(x) = v (x) para cada x que no este en un conjunto de medida nula. Proposicion 2.1.3. La funcion k k1 es una norma. Demostracion. Para tal efecto se deben cumplir las condiciones de la Denicion 1.3.1. (1) se obtiene directamente de la observacion (2.1.2), mientras que (2) y (3) son facilmente vericables. As, k k1 es una norma. En lo que sigue, analizaremos las soluciones para la ecuacion integral u = f + K0 u cuando f esta en L1 [a; b]. Proposicion 2.1.4. Si y ! k(x; y) es continua, entonces kK k sup 0 y Z b a jk(x; y)j dy: 50 Demostracion. En efecto, kK uk 0 1 = Z b j(Ku)(x)jdx = a Z bZ b a a Z b a = sup y jk(x; y)jju(y)j dy dx = ju(y)j sup Z b a y ess sup a Z b a a ju(y)j a jk(x; y)j dx dy jk(x; y)j dx dy jk(x; y)j dx kuk : Observaci on 2.1.5. Si y Z b Z b Z b dx k ( x; y ) u ( y ) dy a a Z b Z b 1 ! k(x; y) no es continua, se tiene que kK k 0 jk(x; y)j dx, donde ess sup denota supremo esencial (ver [1]). A n de resolver la ecuacion u = f + cK0 u, basta tener que kcK0 k < 1: Esto se ha demostrado en la Proposicion 1.3.8 donde solo se utilizaron las propiedades generales de norma. De esta manera la solucion u es: 1 X u=f+ cn K0n f: n=1 A n de probar que esta solucion pertenece al espacio L1 , formamos la sucesion un de la siguiente forma: un = n X i=0 ci K0i f: y observamos que (un ) es una sucesion de Cauchy, por lo estudiado en la Seccion 1.3.5. Como L1 es completo, ver [4], esta sucesion converge a u, la cual es la solucion para la ecuacion u = f + cK0 u. As, u pertenece a L1 . Ejemplo 2.1.6. Para ilustrar como esta nueva norma ampla los tipos de funciones f y k que podemos ocupar, analicemos la siguiente ecuacion u(x) = x 1=2 Z + 0 1 (x 1) 1=3 u(y ) dy: (2.2) 51 En primer lugar observamos que kf k = sup jx x2[0;1] 1=2 j= 1 sup p ; x2[0;1] x de donde vemos que kf k diverge, lo mismo ocurre para kK k = 0 sup j(1 x2[0;1] x) 1=3 j= 1 sup p ; 3 x x2[0;1] 1 as la ecuacion (2.2) no tiene solucion utilizando la norma del supremo. Al contrario si calculamos kf k1 y kK0 k1 obtenemos kf k 1 Z = kK k 0 1 0 jx 1=2 Z sup y2[0;1] 1 0 j dx = 2; j(1 x) 1=3 j dx = 32 : Ya que ambas normas son nitas concluimos que la ecuacion (2.2) tiene solucion y esta pertenece a L1 (0; 1). 2.2. Funciones de Cuadrado Integrable Denicion 2.2.1. Una funcion u se dice de cuadrado integrable en [a; b] si kuk 2 = Z b a u (x) dx < 1: 2 (2.3) Se denota por L2 [a; b] al espacio vectorial de todas las funciones que cumplan con la Denicion 2.2.1, donde u = v si y solo si u(x) = v (x) para cada x que no este en un conjunto de medida nula. Observacion 2.2.2. Otra manera de denir L2 [a; b] es considerando la clausura del espacio de las funciones continuas denidas en el intervalo [a; b] con la norma kf k = Z b a jf (x)jdx 1=2 : 52 Proposicion 2.2.3. La funcion k k2 es una norma. Demostracion. Analoga a la proposicion (2.1.3) Analizaremos las soluciones para la ecuacion integral u = f + K0 u cuando f esta en L2 [a; b]. Proposicion 2.2.4. kK k Z b Z b 0 a a jk(x; y)j 1=2 2 dydx : Demostracion. Si u esta L2 [a; b] entonces kK uk 0 2 2 = Z b a Z b a (K0 u) (x) dx = 2 kk(x; )k kuk ahora si B (K0 ) = 2 2 2 Z b a Z b Z b a a dx = kuk 2 2 kk(x; )k 2 2 2 dx = k (x; y )u(y ) dy 2 2 Z b a kk(x; )k 2 2 Z b a hk(x; ); ui dx dx; dx entonces kK uk B (K )kuk : 0 2 0 2 Observacion 2.2.5. Notemos que B (K0 ) < 1 implica kK0 k < 1, as la ecuacion u = f + K0 u tiene solucion. Esta solucion se encuentra en L2 [a; b], puesto que este espacio es completo, ver [4]. Los siguientes teoremas complementan la demostracion del Teorema FischerRiesz que es una herramienta util para construir funciones de cuadrado integrable a partir de vectores de dimension innita, el cual nos permite llevar la teora de Fredholm a este tipo de espacios vectoriales. 53 Teorema 2.2.6 (Beppo Levi). Sea (fn (x)) una sucesion de funciones, tal que X fn (x) es absolutamente convergente, c:t:p:, con lmite f (x), entonces f (x) es integrable, y Z f (x) dx = XZ fn (x) dx: Teorema 2.2.7 (Fatou). Sea (fn (x)) una sucesion de funciones, tal que Z 0 para cada n 2 N y fn(x) ! f (x) c:t:p: con fn(x) dx < b, para Z algun b 2 R, entonces f (x) es integrable y f (x) dx < b. fn (x) Teorema 2.2.8 (Fischer-Riesz). Si f = (f1 ; f2 ; : : : ) es un vector de dimension innita con kf k2 = L2 tal que 1 X n=1 fn2 < 1 entonces f dene una funcion g en g= 1 X n=1 fn un ; donde fun g es un sistema ortonormal completo. Demostracion. Sea Sn (x) la n-esima suma parcial de la serie 1 X i=0 fi ui (x) y L la longitud del intervalo sobre el cual se integra. De esta manera kSm S n k L1 = Z X m f u ( x ) i i i=n+1 1=2 = L = L1=2 donde n+1 X i=1 fi2 kSm m X dx S n k L2 = L Z 1=2 m X i=n+1 j =n+1 12 dx h m X i=n+1 1=2 2 Z X m @ fi ui (x) i=n+1 m X fi ui (x); fi fj hui ; uj i = L1=2 n+1 X i=1 11=2 0 j =n+1 dxA fj uj (x)i fi2 ; ! 0 cuando n; m ! 1. As, Sn es una sucesion de Cauchy. Dado que L1 es completo, por Teorema de Beppo Levi, Sn es una sucesion 54 convergente con lmite g en L1 . De esto se tiene que Sn es una suma parcial acotada, con cota k . Ahora, si hacemos Z Z Sn (x) dx = 2 y como Sn2 n X i=1 !2 fi ui Z k 2 dx < 1 dx < ! g ; n ! 1 completamos las hipotesis del teorema de Fatou. 2 Por tanto g es una funcion de cuadrado integrable. 2.2.1. Descomposicion de N ucleos En el metodo de Schmidt se supone que un nucleo k (x; y ) se puede descomponer como k (x; y ) = s(x; y ) + e(x; y ); x; y 2 [a; b]; donde s es separable y e es peque~no. En esta seccion veremos como lograr esta descomposicion en el caso del espacio L2 [a; b], con la unica restriccion que k (x; y ) sea continua. La idea es escribir: k (x; y ) = X jnj<N kn (x)einy + X jnjN kn (x)einy ; Z 1 donde kn (x) = k (x; y )e iny dy son los coecientes de Fourier de la 2 funcion y ! k (x; y ) con x jo. (ver [1]). El uso de los coecientes de Fourier tiene una motivacion especial. Si aproximamos una funcion f , primero por medio de una combinacion lineal arbitraria y luego utilizando coecientes de Fourier, obtenemos respectivamente: f ( x) = N X n=1 cn un (x) + E (x); f (x) = N X n=1 fn un (x) + e(x); 55 donde un es cualquier sistema ortonormal completo. Si hacemos la diferencia entre los terminos anteriores, encontramos E (x) = N X n=1 ( fn cn )un (x) + e(x) que corresponde al tama~no del error. Ahora, si calculamos kE k22 obtenemos kE k 2 2 =k N X n=1 (fn cn )un +ek = kek +2he; 2 2 2 2 X Observemos que e es ortogonal a f X = = = N X N X n=1 n=1 (fn cn )un i+k (fn cn )un k22 : fn un ya que X X X X hf fm um ; (fn cn )un i = hf fm um ; fn un c n un i X X X X X X hf; fnuni hf; cnuni h fmum; fnuni + h fmum; cnuni XX X X XX fm cn hum ; un i fm fn hum ; un i + fn hf; un i cn hf; un i X fn hf; un i X m n X fn2 n cn hf; un i + X m n fn cn = 0: Luego, se tiene que kE k 2 2 = kek + 2 2 N X n=1 (fn cn )2 : As, concluimos que el error se minimiza cuando fn = cn . Por lo tanto el utilizar coecientes de Fourier para aproximar una funcion en L2 [a; b] optimiza el tama~no del error. Teorema 2.2.9. Sea un un conjunto ortonormal en L2 [a; b]. Si f es una funcion en L2 [a; b] entonces f =2 L X n2Z Demostracion. Ver [1], pagina 16. hf; uniun: 56 El smbolo =2 representa una igualdad con la norma del espacio L2 [a; b], L es decir, f n X n h f; ui ui ! 0; i n ! 1: (2.4) 2 Proposicion 2.2.10. Para cada f kf k 2 = 2 L [a; b] se tiene 2 X n2Z jfij ; (2.5) 2 que llamamos relacion de completitud. Demostracion. De (2.4) se obtiene lo siguiente: f n X n h 2 f; ui ui i = hf n X n X n n 2 hf; uiiui; f hf; uiiuii que es equivalente a hf; f i o 2hf; f kf k n X n X n n 2 hf; uiiuii + hf 2 n X n fi + 2 n X n hf; uiiui; f fi = k f k 2 Haciendo n ! 1 se obtiene la armacion. 2 n X n Proposicion 2.2.11. Para cada f; g 2 L2 [a; b] se tiene hf; gi = X n2Z fi gi ; que llamamos identidad de Parseval. Demostracion. Tenemos que kf + g k 2 = kf k2 + 2hf; g i + kg k2 : n X n fi2 : hf; uj iuj i 57 Por otro lado ocupando la identidad (2.5) se tiene que kf + gk 2 X = n2Z lo que implica que Consideremos y X (fi + gi )2 = hf; gi = fi2 + 2 n2Z X n2Z X n2Z fi gi + X n2Z gi2 fi gi : ! k(x; y) en L [a; b] con x jo. Empleando el Teorema 2 2.2.9 tenemos que k (x; y ) =2 L X n2Z kn (x)un (y ); donde kn (x) son los coecientes de Fourier de k (x; y ). Estos son: kn (x) = hk (x; ); un i = Z b a k (x; y )un (y ) dy: De esta manera la funcion k (x; y ) se aproxima por k (x; y ) = Deniendo sn (x; y ) = mos X jnj<N X jnj<N kn (x)un (y ) + X jnj>N kn (x)un (y ): kn (x)un (y ) y en (x; y ) = X jnj>N (2.6) kn (x)un (y ) obtene- k (x; y ) = sn (x; y ) + en (x; y ): Proposicion 2.2.12. Sea (En u)(x) = Z b a en (x; y )u(y ) dy . Entonces existe N0 2 N tal que kEn k < 1, para cada n N0 . Demostracion. . Armacion: en ! 0 cuando n ! 1: En efecto, como k (x; y ) = X n2Z kn (x)un (y ), entonces en (x; y ) = k (x; y ) X jnjN kn (x)un (y ) 58 de donde que lm ken k = lm kk n!1 n!1 sn k = 0; lo que prueba la armacion. Ahora bien; por Proposicion 2.2.4 se tiene kEnk Z bZ b a a en (x; y )2 dx dy; y como en ! 0 cuando n ! 1, se obtiene kEn k ! 0. 2.3. Funciones Propias En la seccion anterior se observo que para poder aproximar k (x; y ) por (2.6) se requiere de un sistema ortonormal completo fun g. Para justicar la existencia de este realizaremos el siguiente analisis. A continuacion se entregan Deniciones y Teoremas que complementan la Demostracion del Teorema 2.3.4 Denicion 2.3.1. Diremos que una sucesion (an )n2N en un espacio E con producto interno <; > converge debilmente a un lmite a cribiremos an ! a, si w han; yi ! ha; yi; 2 E , lo cual es- cuando n ! 1: para cada y en el espacio. Denicion 2.3.2. Un conjunto X E es debilmente compacto si para toda sucesion un X existe una subsucesion unk que converge debilmente en X . Teorema 2.3.3. Sea X E un conjunto. Si X es debilmente compacto entonces X es debilmente cerrado. 59 Demostracion. ver [1] section 13 p.163. Teorema 2.3.4. Sea K0 el operador integral de la ecuacion (1.2) y supongamos que K0 es simetrico, entonces K0 posee una funcion propia. Demostracion. Consideremos la funcion Q : L2 [a; b] ! R denida como hu; K0ui : Esta funcion se conoce como cociente de Rayleigh. Q(u) = kuk22 Armacion: La funcion Q tiene un maximo. En efecto, primero observamos que el conjunto A = fx 2 L2 [a; b] : kxk2 = 1g es debilmente compacto, lo cual se conoce como Teorema de Alaoglu, ver [1]. Por Teorema 2.3.3 existe k 2 R tal que jkj = sup jQ(u)j: u2A Por denicion de supremo se tiene que existe una sucesion (un ) A tal que 1 n jkj jQ(un)j; para cada n 2 N: Pero jQ(un )j jk j: As, se tiene jkj 1 n jQ(un)j jkj: Luego, se obtiene jQ(un )j ! jk j cuando n ! 1: Ahora, ya que A es debilmente compacto, tenemos que existe una sub- sucesion, (unk ), de la sucesion (un ) tal que unk ! ' para algun ' 2 A. w Como u ! jQ(u)j es una funcion continua obtenemos jQ(unk )j !w jQ(')j; n ! 1: As, por unicidad de lmite se tiene que: jQ(')j = jkj: 60 Por tanto, jQ(u)j jQ(')j para cada u 2 A. Dado y 2 L [a; b], denamos u := kyyk 2 anterior concluimos que Q pero Q y ky k2 = h y kyk2 y y kyk2 ; K0 kyk2 y 2 ky k2 i 2 . Entonces u 2 A y por la parte jQ(')j 1 = h y; K0 y i = jQ(y )j 2 kyk2 De esto se tiene que jQ(y )j jQ(')j para todo y 2 L2 [a; b], y as Q posee un maximo en ', lo cual prueba la armacion. 2 L [a; b]: Consideremos la funcion q : R ! R denida por q(t) = Q('+ty ): Dado que jQ(m)j jQ(')j para todo m 2 L [a; b] podemos escoger Sea y 2 2 m como ' + ty y entonces q (t) q (0); para cada t 2 R; puesto que q (0) = Q('). Luego, q tiene un maximo en 0, y esto implica que q 0 (0) = 0. Por otra parte, ya que h' + ty; K (' + ty)i k' + tyk h'; K 'i + th'; K yi + thy; K 'i + t hy; K yi : k'k + 2th'; yi + t kyk q (t) = Q(' + ty ) = = 0 2 2 0 0 2 0 2 2 2 2 2 Dado que K0 es un operador simetrico se tiene q (t) = h'; K 'i + 2thK '; yi + t hy; K yi k'k + 2th'; yi + t kyk 0 2 0 2 2 2 0 2 2 0 61 Derivando la funcion q obtenemos q 0 (t) = (2hK0 '; y i + 2thy; K0 y i)k' + ty k22 h' + ty; K0 (' + ty )i(2h'; y i + 2tky k22 ) (k'k22 + 2th'; y i + t2 ky k22 )2 Evaluando q 0 en t = 0, y como ' 2 A se tiene que q 0 (0) = 2hK0 '; y i 2h'; K0 'ih'; y i = 2hK0 '; y i 2h'h'; K0 'i; y i; concluimos que hK ' 0 para todo y 2 'h'; K0 'i; y i = 0; L2 [a; b]. Esto implica que K0 ' 'h'; K0 'i = 0 entonces K0 ' = 'h'; K0 'i donde ' es la funcion propia que buscabamos y h'; K0 'i es su valor propio. Observacion 2.3.5. Asumiendo que K0 es simetrico generamos una base ortonormal por el proceso de ortogonalizacion de Gram-Schmidt a partir de la funcion propia '. As aseguramos la existencia de una base ortonormal completa. 2.4. Teor a en Lp En las secciones anteriores hemos considerado dos espacios de Lebesgue L1 y L2 . Ahora, si consideramos un numero p 2 R tal que p 1, entonces podemos denir el espacio general Lp de Lebesgue como sigue Denicion 2.4.1. Una funcion u se dice p-integrable en [a; b] si kukp = Z b a ju(x)j p dx 1=p < 1; p 1: 62 Se denota por Lp [a; b] al espacio vectorial de todas las funciones que cumplan con la Denicion 2.4.1, donde u = v s y solo s u(x) = v (x) para cada x que no este en un conjunto de medida nula. Proposicion 2.4.2 (Desigualdad de Holder). Sea u una funcion en Lp [a; b] y v una funcion en Lq [a; b] tal que se tiene que Z b a ju(x)v(x)j dx Z b a ju(x)j p dx 1 1 + = 1 con p; q p q 1, entonces 1=p Z b 1=q a jv(x)j q dx : Observacion 2.4.3. De la desigualdad de Holder se obtiene la generalizacion de la desigualdad de Schwartz jhu; vij kukpkvkq : Proposicion 2.4.4. Sea u en Lm [a; b] entonces u pertenece a Ln [a; b] para todo n < m. Demostracion. Tomando p = m=n y aplicando la desigualdad de Holder con las funciones u(x)n y v (x) 1, se tiene que Z b a n u(x) 1 dx = Z b n=m Z b m u(x) dx a " Z b a u(x)m dx 2 Lm[a; b] entonces kukm nito y as u 2 Ln [a; b]. Dado que u a 1=m #n < 1 (b (m n)=m dx a)m=(m m=(m n) n) : 1, luego el producto anterior es Proposicion 2.4.5 (Desigualdad de Minkowski). Sean u y v funciones en Lp [a; b] (p 1) entonces se tiene que Z b a ju(x) + v(x)j p dx 1=p Z b a ju(x)j p 1=p Z b dx a jv(x)j p dx 1=p : 63 Las demostraciones de las Proposiciones 2.4.2 y 2.4.5 se encuentran en [6]. Proposicion 2.4.6. La funcion k kp denida en 2.4.1 es una norma. Demostracion. Para tal efecto se deben cumplir las condiciones de la Denicion 1.3.1. (1) se obtiene directamente de la observacion (2.1.2) cambiando el smbolo kk 1 por k kp donde corresponda. (2) es facilmente vericable, mientras que (3) se obtiene directamente de la Proposicion 2.4.5. As, norma. Proposicion 2.4.7. kK ukp Z b 0 a kk(x; )k p p dx 1=p : Demostracion. En efecto, kK ukp = 0 = = Z b j(K u)(x)j p 0 dx 1=p a p Z b Z b k (x; y )u(y ) dy a a Z b Z b a Z b a a jk(x; y)u(y)j dy hk(x; ); ui p dx 1=p !1=p dx p !1=p dx : Luego por la desigualdad de Holder, se tiene que kK ukp 0 = Z b a kukq kk(x; )k kuk p p Z b a p q dx kk(x; )k 1=p p p dx 1=p : k kp es una 64 Proposicion 2.4.8. Para que el producto de funciones u(x)v(x) pertenezca a Lp [a; b] para todo u 2 Lp [a; b] se debe tener v 2 Lq [a; b]: Demostracion. En efecto, Z b a p (u(x)v (x)) dx 1=p = Z b ocupando la desigualdad de Holder se obtiene: Z b a p p u(x) v (x) dx 1=p a p p 1=p u(x) v (x) dx kupkpkvpkq : De la observacion 1.3.3 tenemos que kup k kukp : As, Z b a p (u(x)v (x)) dx 1=p kukppkvkpq < 1: Observacion 2.4.9. . 1. De la proposicion anterior se obtiene que el operador K0 u pertenece a Lp [a; b] para todo u 2 Lp [a; b] si k (x; y ) pertenece a Lq [a; b]: 2. Como kK0 k es menor que poder resolver la ecuacion (1.2), 1=p p ; observamos que para k (x; ) p dx a con f (x) en Lp [a; b] y k (x; y ) en Lq [a; b] solo Z b k k necesitamos que la cota anterior sea menor que 1. 3.Si u es una funcion continua en Lp [a; b] se tiene que lm kukp = sup ju(x)j: x2[a;b] p!1 Ahora bien, si u no es una funcion continua entonces el lmite anterior sera de la siguiente forma lm kukp = ess sup ju(x)j: x2[a;b] p!1 Bibliograf a [1] J.B. Conway, A Course in Functional Analysis, Graduate texts in Mathematics 96, Springer-Verlag, New York, Berlin, London, Tokyo, 1990. [2] S.I. Grossman, Algebra Lineal, McGraw-Hill, Mexico, Buenos Aires, Madrid, Nueva York, 1996. [3] E.L. Lima, Curso de Analise Vol.1, Editora Hamburg, Sao Paulo, 1982. [4] E. Kreizig, Introductory Functional Analysis with Applications, John Wiley and Sons, New York, Toronto, Singapure, 1978. [5] A.C. Pipkin,A Course on Integral Equations, Texts in Applied Mathematics 9, Springer Verlag, New York, Berlin, London, Paris, Tokyo, 1991. [6] W. Rudin, Real and Complex Analysis, McGraw-Hill, New York, Toronto, London, Sydney, 1966. 65