UNIVERSIDAD DE BUENOS AIRES Facultad de Ciencias Exactas y Naturales Departamento de Matematicas Estimaciones de Error para aproximaciones obtenidas usando cuadrados mnimos con peso variable Autor Mara Gabriela Armentano Director Dr. Ricardo G. Duran Tesis presentada para optar por el Ttulo de Doctor de la Universidad de Buenos Aires 2000 Resumen El objetivo de esta tesis es obtener estimaciones de error en IRN para aproximaciones obtenidas usando cuadrados mnimos con peso variable Probaremos que, bajo hipotesis apropiadas sobre la funcion de peso y la distribuucion de puntos, se tienen estimaciones de error de orden optimo en L1 y L2 para la aproximacion de la funcion y sus derivadas. Estas estimaciones son importantes en el analisis de aproximaciones de Galerkin basadas en cuadrados mnimos con peso variable. En particular, los resultados proveen estimaciones de error, optimas en orden y regularidad, para problemas coercivos de segundo orden. Tambien, nuestras estimaciones de error proveen la consistencia de los esquemas que resultan cuando el metodo es usado para generar formulas de diferencias nitas o colocacion a partir de un conjunto arbitrario de puntos. Ademas, se introduce el metodo de cuadrados mnimos continuos y se obtienen tambien estimaciones de error de orden optimo para este metodo. Finalmente, como ejemplo de aplicacion de estos metodos se considera la ecuacion de conveccion-diusion y se propone una manera de introducir up-wind mediante el uso de una funcion de peso no simetrica. Se presentan varios ejemplos numericos que muestran el buen comportamiento del metodo. Palabras claves. estimaciones de error, cuadrados mnimos con peso variable, metodos sin malla, aproximaciones de Galerkin. Abstract The aim of this thesis is to obtain error estimates for moving least square approximations in N IR . We prove that, under appropriate hypotheses on the weight function and the distribution of points, the method produces optimal order error estimates in L1 and L2 for the approximations of the function and its derivatives. These estimates are important in the analysis of Galerkin approximations based on the moving least square method. In particular, the results provides error estimates, optimal in order and regularity, for second order coercive problems. Also, our estimates allows to control the consistency error of nite dierence or collocation methods obtained from an arbitrary set of points by the moving least square method. Moreover, we introduce the continuous moving least square method and obtain the error estimates for this method too. Finally, as an application of these methods we consider a convection-diusion equation and propose a way of introducing up-wind by means of a non-symmetric weight function. We present several numerical results showing the good behavior of the method. Key words. error estimates, moving least square, meshless method, Galerkin approximations. A mi esposo Sergio y a mis hijos Santiago, Gonzalo y Mercedes Agradecimientos Quisiera agradecer a todos aquellos que de una u otra manera han colaborado para que esta tesis haya sido posible: Al Dr. Ricardo G. Duran, a quien admiro por sus conocimientos y capacidad, le agradezco por haber conado en m. Gracias, por las muchas horas de trabajo en comun, por el buen animo que ha tenido siempre para escucharme, por la dedicacion y empe~no con la que asumio mi direccion, por lo que he aprendido trabajando con el y por la amistad que me ha brindado a lo largo de estos a~nos. A Gabriela Savioli, mi amiga, por haber estado siempre alentandome cuando las fuerzas me faltaban. A mis padres, Mara Esther y Ricardo, y a mis suegros, Gerardo (Apo) y Amelia, por haber estado junto a m brindandome su apoyo y cari~no. A Gabriel Acosta, con quien he trabajado en multiples ocasiones, por su colaboracion y amistad. A Noem Wolanski, Javier Etcheverry, Juan Pablo Borgna, y a todos aquellos que me han apoyado. A Liliana Gysin por su buena predisposicion a mis consultas. Indice General 0.1 Introduccion : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 0.1.1 Las principales caractersticas del metodo y los resultados existentes : : : : 0.1.2 Descripcion general del contenido de esta tesis : : : : : : : : : : : : : : : : 1 El Metodo de Cuadrados Mnimos con Peso Variable 1.1 Descripcion del metodo : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 1.2 La aplicacion de MLS para la resolucion numerica de ecuaciones diferenciales 1.2.1 Aproximaciones de Galerkin : : : : : : : : : : : : : : : : : : : : : : : : 1.2.2 Metodo de Colocacion : : : : : : : : : : : : : : : : : : : : : : : : : : : 1.2.3 Formulas de diferencias nitas usando MLS : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 5 5 6 8 8 11 11 13 14 2 Estimaciones de Error en L1 - El caso unidimensional 16 3 Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional 26 4 El metodo de cuadrados mnimos continuos con peso variable 45 2.1 Estimaciones de error para la aproximacion de la funcion : : : : : : : : : : : : : : 16 2.2 Estimaciones de error para la aproximacion de las derivadas : : : : : : : : : : : : : 18 3.1 Estimaciones de Error en L1 y W 1;1 : : : : : : : : : : : : : : : : : : : : : : : : : 27 3.2 Estimaciones de Error en L2 y H 1 : : : : : : : : : : : : : : : : : : : : : : : : : : : 33 3.3 Cotas de las bases de Lagrange : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 38 4.1 Descripcion del metodo : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 45 4.2 Estimaciones de error : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 46 4.3 La aplicacion de CMLS a la resolucion numerica de ecuaciones diferenciales : : : : 56 3 4 5 Exp erimentos Numericos 5.1 El caso unidimensional : : : : : : : : : : 5.1.1 Aplicaciones del metodo MLS : : 5.1.2 Ejemplo de aplicacion de CMLS 5.2 El caso bidimensional : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 58 58 58 61 71 5 0.1 Introduccion 0.1.1 Las principales caractersticas del metodo y los resultados existentes Dada una ecuacion diferencial es sabido que no siempre es posible hallar la solucion analtica y se necesita entonces recurrir a algun metodo para obtener una aproximacion a dicha solucion. El metodo de elementos nitos as como los metodos de diferencias nitas son algunos de los mas empleados existiendo para ellos una basta teora. Desde hace algunos a~nos una nueva clase de metodos, que se han dado en llamar `metodos sin malla', han cobrado interes y existen numerosos trabajos referentes a la aplicacion de este tipo de metodos a la resolucion numerica de ecuaciones diferenciales ([4],[5],[6],[11],[13], [16],[24],[27],[28],[29],[33]). Dentro de estos metodos se destaca el metodo de cuadrados mnimos con peso variable. Este metodo fue introducido por Shepard [32], como metodo de aproximacion, en el caso de menor orden y luego fue generalizado para mayor orden por Lancaster y Salkauskas [21]. El objeto principal de estos trabajos era proveer una alternativa a la interpolacion clasica que resultara util para aproximar una funcion a partir de su valor en ciertos puntos dados, distribuidos irregularmente, usando cuadrados mnimos pesados con la variante de que los pesos dependan del punto donde se desea realizar la aproximacion. Mas recientemente, el metodo de cuadrados mnimos con peso variable comenzo ha utilizarse como metodo para la resolucion numerica de ecuaciones diferenciales. Entre las principales caractersticas del metodo que despertaron este interes se destacan: - No se requiere la construccion de una \malla" para su aplicacion y por ello este metodo cae dentro de los llamados \metodos sin malla". - Es sencillo construir aproximaciones tan regulares como se desee (este aspecto es importante si se desean resolver ecuaciones de alto orden). - La posibilidad de incorporar a priori, a traves por ejemplo de la eleccion apropiada de la funcion de peso, los conocimientos que se tengan sobre el comportamiento de la solucion de la ecuacion diferencial. Existen diversos trabajos, especialmente en el ambito ingenieril, referentes a la aplicacion del metodo a la resolucion numerica de ecuaciones diferenciales ( [5], [6], [11],[13], [16], [27], [28], [29], [33]) sin embargo, la convergencia del metodo no haba sido demostrada y en particular, no se contaba con una teora que provea estimaciones del error cometido al aproximar la solucion de la ecuacion diferencial por la obtenida empleando el metodo de cuadrados mnimos con peso variable. Para llevar a cabo estas estimaciones era fundamental analizar el orden de la aproximacion no solo para la funcion sino tambien para sus derivadas. En un trabajo reciente Levin [22] analiza una variante del metodo de cuadrados mnimos con peso variable para una funcion de peso en particular (cabe se~nalar que la funcion de peso por el considerada no es de soporte compacto como es usual en la aplicacion del metodo para la resolucion numerica de ecuaciones diferenciales ( [5], [6], [11], [27], [33])). En este trabajo obtiene estimaciones de error en norma uniforme para la aproximacion de una funcion regular en N dimensiones. Sin embargo, no obtiene estimaciones de error para las derivadas. Era entonces un tema no resuelto obtener esta clase de estimaciones. Teniendo en cuenta ademas que en general las soluciones de ecuaciones diferenciales no suelen ser regulares era importante contar con estimaciones de error en norma L2 con menos requerimientos de regularidad de la funcion que los que se emplean para obtener estimaciones de error en norma uniforme. La necesidad de obtener este tipo 6 de estimaciones a n de establecer la convergencia del metodo cuando es aplicado a la resolucion numerica de ecuaciones diferenciales son las que motivaron la presente tesis. Cabe mencionar que los resultados obtenidos para el caso unidimensional y luego para el caso N -dimensional se presentan en los trabajos [1] y [2] respectivamente. Inspirados en este metodo estudiamos ademas un nuevo metodo de aproximacion el cual hemos dado en llamar Cuadrados mnimos continuos con peso variable. Para este metodo obtenemos estimaciones de error tanto en norma uniforme como en norma L2 de la aproximacion de la funcion y sus derivadas y explicamos como podra implementarse para la resolucion numerica de ecuaciones diferenciales. Es importante notar que este metodo posee las mismas tres caractersticas que mencionamos anteriormente para el metodo de cuadrados mnimos con peso variable. 0.1.2 Descripcion general del contenido de esta tesis Los resultados obtenidos, que han dado lugar a la presente tesis, son presentados de la siguiente manera: El Captulo 1 comienza describiendo el metodo de cuadrados mnimos con peso variable como metodo para la aproximacion de funciones y sus caracteristicas mas sobresalientes. La seccion 1.2 esta dedicada a explorar las distintas alternativas de la aplicacion del metodo a la resolucion numerica de ecuaciones diferenciales. Una de las posibles aplicaciones es la de generar Aproximaciones de Galerkin, usando funciones base que se construyen por el metodo de cuadrados mnimos con pesos variable, como se describe en la seccion 1.2.1. Pero existen ademas otras alternativas interesantes como es la posibilidad de utilizar las aproximaciones obtenidas por el metodo propuesto en el Metodo de Colocacion, como se describe en la seccion 1.2.2, as como, utilizarlo para generar formulas de diferencias nitas para aproximar la funcion y sus derivadas como se explica en la seccion 1.2.3. En el Captulo 2 abordamos el problema de obtener estimaciones de error para la aproximacion de la funcion y sus derivadas en el caso unidimensional. Este caso es analizado aparte ya que se cuenta con propiedades de la aproximacion que no se conocen hasta el momento para el caso general. Ademas esta claro que en este caso el concepto de malla no adquiere especial signicado lo que conduce a que el analisis sea esencialemte mas simple que para el caso N -dimensional. Comenzamos presentando las estimaciones de error para la aproximacion de la funcion en la seccion 2.1, estas estimaciones se derivan de resultados conocidos en teora de aproximacion. La seccion 2.2 esta dedicada a obtener estimaciones de error para las dos primeras derivadas en norma L1 . Es importante notar que no se contaba hasta el momento con estimaciones de este tipo siendo entonces este uno de los aportes originales de esta tesis. Una de las ideas fundamentales que posibilitaron tales estimaciones es haber explotado la propiedad de ortogonalidad que satisface la aproximacion que resulta de cuadrados mnimos. Si bien se presentan las estimaciones de error solo para las dos primeras derivadas las mismas ideas pueden utilizarse para obtener estimaciones para las derivadas de orden mayor. En el Captulo 3 estudiamos el caso N -dimensional. Este caso presenta la dicultad de establecer condiciones sobre la distribucion de los puntos dados de manera de garantizar la existencia del aproximante y obtener estimaciones del error de aproximacion pero permitiendo que los puntos esten distribuidos irregularmente, por ende comenzamos presentando las propiedades que supon- 7 dremos sobre la funcion de peso y la distribucion de los puntos. En la seccion 3.1 presentamos las estimaciones de error para la aproximacion de la funcion y sus derivadas en L1 , estas estimaciones se realizan generalizando las ideas usadas para el caso unidimensional. Uno de nuestros principales intereses era obtener estimaciones en L2 con menos requerimientos de regularidad de la funcion que los que se supusieron para obtener estimaciones en L1 . En este aspecto no exista ningun resultado sobre el error en la aproximacion de la funcion ni de sus derivadas, por ende las estimaciones de error que obtenemos en la seccion 3.2, optimas en orden y regularidad, conforman otro de los resultados relevantes de esta tesis. En resumen, las estimaciones de error que se presentan en los Captulos 2 y 3 garantizan la convergencia del metodo cuando es aplicado como metodo de Galerkin para problemas coercivos de segundo orden , as como la consistencia de los esquemas resultantes cuando es usado para generar esquemas de diferencias como se explica en el Captulo 1. El Captulo 4, el cual constituye otro de los aportes originales de esta tesis, esta dedicado al analisis de un nuevo metodo de aproximacion, por nosotros llamado cuadrados mnimos continuos con peso variable, en el cual, a diferencia del metodo de cuadrados mnimos con peso variable analizado previamente, el aproximante se construye minimizando un promedio de los errores en lugar de considerar solo el valor en ciertos puntos. En la seccion 4.2 presentamos las estimaciones de error en L1 y en L2 para la aproximacion de la funcion y sus primeras derivadas y en la seccion 4.3 explicamos como el metodo puede ser empleado para resolver numericamente ecuaciones diferenciales. El ultimo Captulo de esta tesis esta dedicado a presentar experimentos numericos sobre la aplicacion de los metodos propuestos para la resolucion numerica de ecuaciones diferenciales. Entre las caractersticas sobresalientes de estos metodos, que mencionamos previamente, se destaca la posibilidad de incorporar, a priori, el conocimiento que se tenga sobre el comportamiento de la solucion de la ecuacion y es sobre el aprovechamiento de esta cualidad en la que se concentran los ejemplos. Los experimentos numericos se reeren entonces a la aplicacion del metodo a la resolucion numerica de la ecuacion de conveccion-difusion. En la seccion 5.1 consideramos el caso unidimensional, es sabido que si la conveccion domina es necesario trabajar con mallas muy nas, si se emplea el metodo de elementos nitos usual o en su defecto emplear elementos nitos no centrados o bien formulas de diferencias nitas con up-wind a n de evitar la presencia de oscilaciones ([25], [31]). Los metodos propuestos, en esta tesis, se emplean utilizando una funcion de peso que tenga en cuenta la asimetra del problema y a lo largo de esta seccion se presentan ejemplos de las distintas alternativas de aplicacion de los metodos y se comparan con las obtenidas si se emplean los metodos usuales. La seccion 5.2 esta dedicada a la aplicacion del metodo de cuadrados mnimos con peso variable a la ecuacion de conveccion-difusion en dos dimensiones. Se plantea como generalizar el concepto unidimensinal de `up-wind' proponiendo una funcion de peso conveniente y se presentan gracos comparativos de la solucion obtenida por este metodo y diferencias nitas. Cap tulo 1 El Metodo de Cuadrados Mnimos con Peso Variable En este captulo describiremos el metodo de cuadrados mnimos con peso variable y las distintas variantes de su aplicacion para obtener aproximaciones a la solucion de ecuaciones diferenciales. 1.1 Descripcion del metodo El metodo de cuadrados mnimos usual ([12],[18],[20]) trata el problema de aproximar una funcion u(x) a partir de su valor en ciertos puntos f1; ; n g pertenecientes a algun conjunto N . Para llevar a cabo la aproximacion se elige un conjunto de s funciones linealmente independientes (usualmente polinomios) g1; ; gs con s n y se busca una aproximacion a u(x) de la forma IR u^(x) = s X k=1 k gk (x) donde los coecientes 1 ; ; s son elegidos de manera que mimimicen la expresion J () = n X i=1 wi(ui ? s X k=1 gk (i)k )2 con wi constantes no negativas dadas (pesos) y ui = u(i ); 1 i n. En el metodo de cuadrados mnimos con peso variable, a diferencia del metodo de cuadrados mnimos usual, se consideran pesos que sean funciones de x, i.e, wi = wi (x) 1 i n y por lo tanto, para cada x, los coecientes 1 (x); ; s (x) son elegidos de manera que minimicen J () = n X i=1 wi(x)(ui ? 8 s X k=1 gk (i)k (x))2 (1.1.1) El Metodo de Cuadrados Mnimos con Peso Variable 9 y en consecuencia la aproximacion esta dada por u^(x) = s X k=1 k (x)gk (x) (1.1.2) Observacion 1.1.1 Si se utiliza una sola funcion g1(x) 1 se tiene el metodo de Shepard [32], y el aproximante u^(x) esta dado entonces por: Pn w (x)u i i u^(x) = Pi=1 n w (x) j =1 j En consecuencia, para cada x, u^(x) resulta ser en este caso un promedio pesado de los valores de u en los puntos f1 ; ; n g. La aproximacion denida en (1.1.2) con s > 1 es entonces una generalizacion del metodo de Shepard la cual fue introducida por Lancaster y Salkauskas [21]. Es claro que las funciones de peso en (1.1.1) pueden elegirse para producir efectos convenientes. Si la funcion de peso wi se concentra proxima a i y se aproxima a cero cuando x se aleja de i , los puntos lejanos a x tendran poca inuencia al considerar u^(x). Esto se tiene, por ejemplo, si se toman funciones de peso que sean de la forma wi(x) = (x ? i ) con alguna funcion no negativa con soporte en un entorno de x. Este es el tipo de funciones de peso que vamos a considerar, como es usual cuando el metodo de cuadrados mnimos con peso variable se utiliza para construir aproximaciones a la solucion de ecuaciones diferenciales ([5], [6], [11], [27], [33]). El metodo de cuadrados mninos con peso variable que consideraremos en esta tesis, el cual llamaremos en adelante MLS, puede describirse de la siguiente manera: Dado R > 0 sea 0 R 1 una funcion con soporte en BR (0) = fz=kz k Rg y sea XR = f1; ; ng un conjunto de n = n(R) puntos en IRN , un conjunto abierto acotado y con borde Lipschitz. Sean fu1; u2; ; un g los valores de la funcion u en los puntos pertenecientes a XR , i.e, uj = u(j ), 1 j n. Vamos a denotar por Pm el conjunto de todos los polinomios de grado menor o igual a m, sea s = dim Pm y fp1; ; ps g una base de Pm . P Para cada x 2 consideramos P (x; y ) = sk=1 pk (y )k (x), donde los coecientes k (x), 1 k s, son elegidos tal que Jx () = n X j =1 s X R(x ? j )(uj ? k=1 pk (j )k (x))2 sea mnimo. Denimos entonces una aproximacion a u(x) como u^(x) = P (x; x) = s X k=1 pk (x)k (x) (1.1.3) Para que el aproximante este bien denido cualquiera sea x 2 debemos garantizar que el problema de minimizacion tenga solucion unica. A tal n consideramos la siguiente propiedad sobre la funcion de peso R y los puntos pertenecientes a XR : 10 Captulo 1 Propiedad L : Para cada x 2 , existe un subconjunto de s puntos i ; ; is pertenecientes a XR donde la interpolacion de Lagrange es posible (es decir, existe un unico polinomio PI de grado menor o igual que m tal que PI (ij ) = u(ij ) para 1 j s) y tal que R(x ? ij ) > 0 para aquellos puntos ij ; 1 j s. Si R satisface la Propiedad L podemos denir para cada x 2 1 < f; g >x = n X j =1 R (x ? j )f (j )g (j ) (1.1.4) que resulta ser un producto interno sobre Pm y la correspondiente norma asociada es entonces kf k2x =< f; f >x. Observemos que si notamos f = (f (1); ; f (n ))t el producto interno (1.1.4) puede escribirse en forma matricial de la siguiente manera < f; g >x = t f W (x)g donde W(x) es la matriz diagonal de n n, W(x) = diag (R(x ? 1); ; R(x ? n )) con elementos no-negativos. Sabemos que para cada x 2 la mejor aproximacion P (x; ) 2 Pm satisface la relacion de ortogonalidad < u ? P (x; ); pl >x = 0 81 l s dado que P (x; ) es la proyeccion ortogonal de u sobre Pm bajo el producto < ; >x ([12],[18].[20]). Por lo tanto los coecientes k (x) , 1 k s satisfacen las correspondientes ecuaciones normales s X k=1 k (x) < pk ; pl >x=< u; pl >x 1 l s Si notamos (x) = (1 (x); ; s (x))t las ecuaciones normales pueden escribirse en la forma PW (x)Pt = PW(x)u (1.1.5) donde P es una matriz de sn cuya j ?esima la es p = (pj (1 ); ; pj (n )) y u = (u(1); ; u(n ))t. j Observacion 1.1.2 Notemos que la independencia de los vectores j , lo cual se sigue inmediatamente de la independencia de fpj g1j s , junto con el hecho de que R satisface la Propiedad L implican que (x) t es denida positiva. Luego los coecientes k (x); 1 k s son determinados univocamente y P (x; ) esta bien denido. p PW P De resultados clasicos en teora de aproximacion por cuadrados mnimos (ver por ejemplo [18]) tenemos entonces que: Teorema 1.1.1 Si la funcion de peso R satisface la Propiedad L. Entonces, para cualquier x 2 existe un unico P (x; ) 2 Pm para el cual ku ? P (x; :)kx ku ? P kx 8 P 2 Pm . El Metodo de Cuadrados Mnimos con Peso Variable 11 Observacion 1.1.3 A partir de las ecuaciones normales (1.1.5) P (x; x) puede ser escrito de la siguiente manera n X P (x; x) = P j =1 j (x)uj (1.1.6) con j (x) = sk=1 ((PW(x)Pt)?1 cj )k pk (x) = (p1(x) ps (x))(PW(x)Pt)?1 cj donde cj es la j-esima columna de PW(x) , 1 j s Observacion 1.1.4 Para ver la regularidad de P basta notar que si R 2 C k (IRN ) luego P 2 C k ( ), lo cual se sigue inmediatamente desde la inversibilidad de (x) t y (1.1.3) (ver seccion 2 en [21]). En conclusion las funciones base j denidas en (1.1.6) son funciones con soporte en BR (j ) y tienen la misma regularidad que la funcion de peso R . PW P Observacion 1.1.5 Es sencillo ver que si u P 2 Pk con k m, luego u^ = u. En particular fj g1jn son una particion de la unidad, i.e, nj=1 j (x) = 1, 8x 2 . 1.2 La aplicacion de MLS para la resolucion numerica de ecuaciones diferenciales En esta seccion presentaremos distintas alternativas de la aplicacion de MLS para obtener aproximaciones a la solucion de ecuaciones diferenciales. En la subseccion 1.2.1 explicaremos como obtener aproximaciones de Galerkin usando MLS. En la subseccion 1.2.2 nos ocuparemos del uso de MLS como Metodo de Colocacion y por ultimo en la subseccion 1.2.3 describiremos como generar formulas de diferencias nitas usando MLS. 1.2.1 Aproximaciones de Galerkin Supongamos que deseamos resolver una ecuacion diferencial la cual puede expresarse en su forma variacional de la siguiente manera: Hallar u 2 V H , donde H es un espacio de Hilbert dotado de un producto interno < ; >, tal que (1.2.7) a(u; v ) = L(v ); 8v 2 V donde a(; ) es una forma bilineal, continua (o sea existe C tal que ja(v; w)j C kv kV kwkV 8v; w 2 V ), y coerciva en V (existe una constante > 0 tal que a(v; v) kvk2V 8 v 2 V ), y L es un operador lineal y continuo en V (i.e, existe una constante > 0 tal que jL(v )j kv kV 8v 2 V ). El metodo de Galerkin consiste en obtener una solucion aproximada al problema variacional (1.2.7) resolviendo un problema en dimension nita de la siguiente manera: Hallar uh 2 Vh , donde Vh es un subespacio de V de dimension nita, tal que a(uh ; v) = L(v); 8v 2 Vh (1.2.8) 12 Captulo 1 Por el Teorema de Lax-Milgram ([7], [10]) sabemos que tanto el problema (1.2.7) como el problema (1.2.8) tiene solucion unica. Ademas por el Lema de Cea ([7], [10]) sabemos que: ku ? uh kV C infv2Vh ku ? vkV (1.2.9) donde C y son las constantes de continuidad y coercividad de la forma bilineal a. Observacion 1.2.1 Si la forma bilineal no resulta coerciva, pero satisface la llamada condicion inf-sup, i.e, 9 > 0 tal que y sup ak(vu;k v ) kukV 8u 2 V (1.2.10) sup ak(uu;k v ) kv kV 8v 2 V (1.2.11) v2V u2V V V se tienen tambien resultados de existencia y unicidad para el problema (1.2.7) (ver por ejemplo [8]) Para tener aproximaciones de Galerkin bien denidas asumimos que a satisface la cond inf-sup en Vh , i.e., existe > 0 tal que sup ak(vu;k v ) kukV 8u 2 Vh v2Vh V (1.2.12) Bajo estas suposiciones tenemos entonces una generalizacion del Lema de Cea dado por Babuska [3]: ku ? uh kV (1 + C )infv2Vh ku ? vkV (1.2.13) Observacion 1.2.2 Notemos que la condicion (1.2.10) (y analogamente (1.2.11)) pueden escri- birse como a(u; v) > 0 inf sup u2V kuk kvk v2V V V y de ah su nombre. En el metodo de elementos nitos usual se consideran cierto tipos de elementos, por ejemplo triangulos si IR2 , y se toma como Vh el espacio de funciones de V que restringidas a cada triangulo son polinomios de cierto grado (la eleccion de Vh esta ligada al espacio V en cada caso). Para este tipo de metodos existe una teora muy completa ([7],[10]) y se tienen estimaciones del error u ? uh en terminos del tama~no de la malla, en este caso el subindice h se asocia con el mayor diametro de los elementos de la triangulacion. El metodo de cuadrados mnimos con peso variable MLS puede ser utilizado para construir aproximaciones de Galerkin de la siguiente manera: El Metodo de Cuadrados Mnimos con Peso Variable 13 Sea VR = spanf1; : : :; ng, donde j , 1 j n son las funciones base denidas en (1.1.6), el problema es entonces hallar uR 2 VR de la forma uR (x) = n X j =1 j (x)uRj donde uR1 ; : : :; uRn son solucion del sistema n X j =1 a(j ; k )uRj = L(k ); 1 k n Observacion 1.2.3 Como las funciones base j tienen la misma regularidad que R ( ver Observacion 1.1.4) es sencillo construir espacios VR adecuados para cada problema. Para ver como es la aproximacion es fundamental tener entonces estimaciones del error u ? uR en terminos de R el cual juega el mismo papel que h en el metodo de elementos nitos (aunque cabe destacar que para la aplicacion de MLS no se necesita tener una malla o triangulacion en el sentido usual). Notemos que a partir de (1.2.9) o (1.2.13) se tiene que ku ? uRkV C ku ? vkV 8v 2 VR Como la estimacion se tiene cualquiera sea v 2 VR podemos considerar v = u^ 2 VR denido en (1.1.6). Las estimaciones deseadas para u ? uR se tendran entonces a partir de las estimaciones de error para u ? u^, las cuales seran presentadas en los Captulos 2 y 3. 1.2.2 Metodo de Colocacion Otra aplicacion de MLS para la resolucion numerica de ecuaciones diferenciales es el Metodo de Colocacion el cual puede describirse de la siguiente manera: Dada una ecuacion diferencial Lu = f en con condiciones de borde Bu = g en @ con LPy B operadores lineales, nos proponemos encontrar una aproximacion a u de la forma uR = nj=1 j aj con j como en (1.1.6). Por lo mencionado en la Observacion 1.1.4 las funciones base j pueden construirse sucientemente regulares si se eligen funciones de peso convenientes. El metodo de colocacion consiste en imponerle a uR que satisfaga la ecuacion diferencial y las condiciones de borde, en ciertos puntos fz1; ; zng 2 , i.e, LuR jx=zi = f (zi ) zi 2 BuRjx=zi = g(zi) zi 2 @ 14 Captulo 1 Arribando de esta manera a un sistema de n ecuaciones con n incognitas a1; ; an . LR a = FR donde LR es una matriz de n n tal que (LR )ij = L(j (x))jx=zi si zi 2 y (LR )ij = B (j (x))jx=zi si zi 2 @ y FR es un vector con componentes f (zi ) o g (zi ) segun zi 2 o zi 2 @ . La convergencia de este tipo de metodos se establece a partir de la estabilidad y la consistencia del esquema resultante [31]. A pesar que MLS como metodo de Colocacion fue utilizado en varios trabajos ([11], [27], [33]) ninguno de estos presenta resultados de este tipo. Si bien la estabilidad debe analizarse en cada caso en particular, las estimaciones de error que presentaremos en el Captulo 2 (caso unidimensional) y en el Captulo 3 (caso N-dimensional) pueden emplearse para establecer la consistencia de los esquemas resultantes al utilizar MLS como metodo de colocacion para resolver ecuaciones diferenciales de segundo orden. 1.2.3 Formulas de diferencias nitas usando MLS En [28] Orkisz propone un aprovechamiento de MLS ( distinto al metodo de colocacion) para generar esquemas de diferencias nitas para resolver ecuaciones diferenciales. Vamos a ejemplicar esta aplicacion para el caso unidimensional, el mismo razonamiento puede emplearse para generar formulas de diferencias en mas dimensiones. m Fijado x^ en podemos condiderar f1; x ? x^; ; (x?mx^!) g una base de Pm , y P (^x; x) = mX +1 k=1 k ?1 ak (^x) (x(k??x^)1)! donde los coecientes ak (^x) son determinados minimizando n X j =1 R (^x ? j )(uj ? mX +1 k=1 )k?1 )2 ak (^x) ((jk??x^1)! Notemos que P (^x; x) coincidira con el polinomio de Taylor de grado m, centrado en x^, de la funcion u si los coecientes ak fuesen las (k ? 1)-esimas derivadas de u evaluadas en x^. Inspirado en esta idea Orkisz propone considerar, para cada x^ 2 , a ak (^x) como una aproximacion a u(k?1) (^x), 1 k m + 1. De esta manera se pueden generar facilmente formulas de diferencias para las derivadas las cuales podran utilizarse para resolver ecuaciones diferenciales de hasta orden m. Si bien u(^x) se aproxima por a1 (^x) = P (^x; x^) = u^(^x), Orkisz propone que la k-esima derivada de u en x^ se aproxime por ak+1 (^x) en lugar de aproximarla por la k-esima derivada de u^ en x^ como se propuso en los metodos antes mencionados. De esta manera se pueden generar formulas de diferencias nitas mas facilmente que utilizando colocacion ya que nos evitamos el calculo de las derivadas de u^. La convergencia de las aproximaciones obtenidas usando estos esquemas de diferencias nitas puede establecerse si se tiene la consistencia y la estabilidad de los mismos. Si bien nuestro proposito es obtener estimaciones del error cometido al aproximar u y sus derivadas por u^ y las El Metodo de Cuadrados Mnimos con Peso Variable 15 derivadas de u^, es importante notar que los resultados intermedios que se obtienen para arribar a estas estimaciones de error (ver Captulo 2) proporcionan tambien estimaciones del error cometido al aproximar la primer y segunda derivada de u por ak para k = 2; 3 respectivamente, y estas estimaciones proveen entonces la consistencia para esquemas de este tipo cuando se emplean para resolver ecuaciones diferenciales de segundo orden. Cap tulo 2 Estimaciones de Error en L1 - El caso unidimensional En este captulo vamos a establecer estimaciones de error en norma innito para el caso unidimensional, en terminos del parametro R, no solo para la aproximacion de la funcion sino tambien para la aproximacion de sus derivadas dado que, como mencionamos antes, queremos establecer estimaciones de error que provean la convergencia de MLS cuando es aplicado para resolver ecuaciones diferenciales. 2.1 Estimaciones de error para la aproximacion de la funcion Recordemos que, dado R > 0, R con soporte en BR (0) y n = n(R) puntos XR = f1 ; ; n g en un intervalo IR, denotamos por fp1 ; ; pm+1 g una base de Pm y para cada x 2 llamamos u^(x) = P (x; x) a la aproximacion a u(x) denida en (1.1.3). Vamos a denotar, para k entero no-negativo, W k;1 ( ) al espacio de Sobolev denido por k; W 1 ( ) = ff 2 L1loc : kf kW k;1 ( ) < 1g donde kf kW k;1 ( ) = maxjjk kD f kL1 ( ) con = (1; ; N ), i 2 IN0 para 1 i n y D f la derivada debil de f de orden j j = 1 + + N , i.e, W k;1 ( ) es el espacio de las funciones con derivadas distribucionales hasta el orden k en L1 ( ). Para realizar nuestro analisis de error vamos a considerar una serie de propiedades sobre la funcion de peso R y la distribucion de los puntos pertenecientes a XR . Todas las constantes que aparecen son independientes de R. En adelante, para simplicar notacion, vamos a descartar el subndice R en R . 1. Dado x 2 existen al menos m + 1 puntos pertenecientes a XR \ B R (x) 2 2. 9c0 > 0 tal que (z ) c0 8z 2 B R (0). 2 3. 2 C 1(BR (0)) \ W 1;1 (IR) y 9 c1 > 0 tal que k0 kL1 (IR) cR 1 16 Estimaciones de Error en L1 - El caso unidimensional 17 4. 9cp tal que R cp con = minji ? k j donde el mnimo se considera sobre los m +1 puntos dados por la propiedad 1). 5. 9c# tal que para cualquier x 2 , cardfXR \ B2R (x)g < c# . 6. 2 C 2(BR (0)) \ W 2;1 (IR) y 9 c2 tal que k00kL1 (IR) Rc 2 2 En primer termino deseamos establecer el orden con que u^ aproxima a la funcion u. Esto puede establecerse a partir de resultados conocidos para la mejor aproximacion por cuadrados mnimos. El siguiente Teorema puede verse como un caso particular del Teorema 8 en [26] o el Teorema 1 en [23]. Teorema 2.1.1 Supongamos que satisface la Propiedad L mencionada en el Captulo 1. Sea x 2 y u 2 C m+1 (BR (x) \ ). Si P (x; y) es el polinomio en y que minimiza Jx (), luego u(y ) ? P (x; y ) tiene al menos m + 1 ceros en BR (x) \ . Dem. Dado x 2 supongamos que u(y) ? P (x; y) tiene exactamente k ceros (no necesariamente distintos) c1 ; ; ck con k m. Entonces Yk u(y ) ? P (x; y ) = (y ? cj )g (y) j =1 por con g continua y sin ceros en IR = BR (x) \ . Luego g > 0 o g < 0 en IR . Supongamos Q ejemplo que g > 0 en IR y sea tal que 0 < < minIR g . Sea Q(y ) = P (x; y ) + kj=1 (y ? cj ) luego Yk ju(y) ? Q(y)j = j (y ? cj )jjg(y) ? j = j = j j =1 k Y (y ? cj )j(g (y ) ? ) j =1 Yk Yk j =1 j =1 (y ? cj )g (y )j ? j < ju(y ) ? P (x; y)j para todo y 2 IR ? fc1; ; ck g. Consideramos ahora ku(y) ? Q(y)kx = n X j =1 (2.1.1) (x ? j )(u(j ) ? Q(j ))2 = X j 2BR(x) (y ? cj )j (x ? j )(u(j ) ? Q(j ))2 (2.1.2) Observemos que ju(cj ) ? P (x; cj )j = ju(cj ) ? Q(cj )j, 1 j k. Como satisface la Propiedad L hay al menos m + 1 > k puntos donde 6= 0 y en consecuencia usando (2.1.1) en (2.1.2) ku ? Qkx < ku ? P (x; )kx 18 Captulo 2 Absurdo, pues por Teorema 1.1.1 sabemos que ku ? P (x; )kx ku ? P kx ; 8P 2 Pm . Luego u ? P (x; ) tiene al menos m + 1 ceros en IR . Como consecuencia de este resultado y a partir de las estimaciones clasicas para el error de interpolacion (ver por ejemplo [12] o [18]). podemos concluir que Corolario 2.1.1 Si satisface la Propiedad L y u 2 C m+1( ) luego para cada x 2 y cualquiera sea y 2 BR (x) \ tenemos que ju(y) ? P (x; y)j C kum+1kL1( )Rm+1 (2.1.3) en particular tomando y = x, resulta ku ? u^kL1( ) C kum+1kL1( )Rm+1 (2.1.4) 2.2 Estimaciones de error para la aproximacion de las derivadas Nuestro proposito es estimar el error en la aproximacion de u0 por u^0 . Si bien la estimacion del error cometido al aproximar u por u^ pudo establecerse desde resultados clasicos en teora de aproximacion por cuadrados mnimos, no se tenan resultados similares para la aproximacion de las derivadas. Siendo entonces las estimaciones de error que presentaremos ahora uno de los resultados principales de esta tesis. Una de las dicultades principales para obtener estas estimaciones surga del hecho de que para estimar el error en las derivadas deba establecerse como variaban los coecientes k denidos en (1.1.3). El siguiente Lema da la herramienta fundamental para llevar a cabo estas estimaciones. @P (x;y) existe y u 2 C m+1 ( ). Si las propiedades 1) a 5) se @x tienen entonces, existe una constante C = C (c0; c1; cp; c#; m) tal que 8y 2 BR (x) \ : (x; y ) j @P @x j CRmkum+1 kL1( ) (2.2.5) Lema 2.2.1 Sea x 2 tal que Dem. Dado x 2 , en vista de la propiedad 1) existen puntos j ; j ; ; jm 2 XR \ B R (x) 1 2 donde la interpolacion de Lagrange es posible. Para cualquier h > 0 denimos S (x) = X k2fji g jP (x + h; k ) ? P (x; k)j2 Luego por la propiedad 2) tenemos que X S (x) 1 (x ? k )(P (x + h; k ) ? P (x; k ))2 c0 k2fji g +1 2 (2.2.6) Estimaciones de Error en L1 - El caso unidimensional n X c1 (x ? k )(P (x + h; k) ? P (x; k))2 0 k=1 n X 1 (x ? k )(P (x + h; k ) ? P (x; k ))(P (x + h; k ) ? u(k )) = c 0 k=1 n X + c1 (x ? k )(P (x + h; k ) ? P (x; k ))(u(k ) ? P (x; k )) 0 k=1 19 (2.2.7) Dado que, para cada x 2 , P (x; ) minimiza ku ? P (x; )kx, cualquiera sea Q polinomio de grado menor o igual que m se tiene que < u ? P (x; ); Q >x = 0 (2.2.8) Sea Q el polinomio de grado m denido por Q(y ) = P (x + h; y ) ? P (x; y ) tenemos entonces que < u(y ) ? P (x; y ); Q(y ) >x = n X k=1 (x ? k )Q(k )(u(k ) ? P (x; k )) = 0 (2.2.9) Luego usando esto en (2.2.7) se sigue que S (x) c1 n X 0 k=1 (x ? k )Q(k )(P (x + h; k ) ? u(k )) (2.2.10) Como esta en C 1 (BR (0)) \ W 1;1 (IR), para h sucientemente peque~no, 9k 2 (x ? k ; x + h ? k ) tal que (x ? k ) = (x + h ? k ) ? 0(k )h y por lo tanto reemplazando en (2.2.10) obtenemos n X S (x) c1 (x + h ? k )Q(k)(P (x + h; k ) ? u(k )) 0 k=1 n X ? ch 0(k )Q(k)(P (x + h; k ) ? u(k )) 0 k=1 A partir de que < u(y ) ? P (x + h; y ); Q(y ) >x+h = 0, que 0 tiene soporte contenido en BR (0) y la propiedad 3) tenemos que n X S (x) ch 0(k )Q(k )(u(k ) ? P (x + h; k )) 0 k=1 n X ch j0(k )jjQ(k)jj(P (x + h; k ) ? u(k ))j 0 k=1 X cc1Rh jQ(k)jj(P (x + h; k) ? u(k ))j 0 k 2B R(x) 2 Por el mismo argumento usado para arribar al Corolario 2.1.1 cualquiera sea x + h 2 e y 2 B2R (x) \ tenemos que jP (x + h; y ) ? u(y)j C kum+1kL1 ( )Rm+1 y en consecuencia para k 2 B2R(x) jP (x + h; k) ? u(k )j C kum+1kL1( )Rm+1 20 Captulo 2 luego, S (x) Chkum+1 kL1 ( )Rm X k 2B2R (x) jQ(k )j (2.2.11) Como Q es un polinomio de grado m este puede escribirse de la siguiente manera X Q(y ) = Q(k )lk (y ) k2fjig (2.2.12) donde lkQ(y ) son los polinomios base de Lagrange asociados a los puntos j ; j ; ; jm , i.e, lk (y) = l2fji g;l=6 k yk??ll , k 2 fji g 1 i s, y en consecuencia 1 X k 2B2R(x) X jQ(k)j i2fjk g jQ(i)j( X k 2B2R(x) 2 +1 jli(k )j) Por la propiedad 4) se tiene jli(y )j c( R )m+1 C (cp; m), 8i 2 fjk ; 1 k m + 1g y por lo tanto haciendo uso de la propiedad 5) y (2.2.11) tenemos que X ( k2fjig X jQ(k )j)2 (m + 1) jQ(k )j2 = (m + 1)S (x) k2fji g X Chkum+1kL1( )Rmc# jQ(k )j (2.2.13) jQ(k)j Chkum+1kL1 ( )Rm (2.2.14) k2fji g y en consecuencia X k2fji g Finalmente usando (2.2.14) y la propiedad 4) en (2.2.12) obtenemos 8y 2 BR (x) \ jQ(y)j = jP (x + h; y) ? P (x; y)j C kum+1k 1 Rm h L ( ) h (2.2.15) y por lo tanto, si x es un punto para el cual @P @x(x;y) existe, la demostracion concluye tomando h ! 0. El siguiente teorema establece el orden con el cual u^0 aproxima a u0 . Teorema 2.2.1 Si u 2 C m+1( ) y las propiedades 1) a 5) se satisfacen, entonces existe C = C (c0; c1; cp; c#; m) tal que ku0 ? u^0kL1 ( ) C kum+1kL1( )Rm (2.2.16) Dem. Observemos que, como 2 C 1(BR(0)) \ W 1;1( ) luego, P (x; y) es continuo en todos los IR puntos y diferenciable para todo x salvo un conjunto nito de puntos (esto puede ser visto usando nuevamente el argumento dado en [21], seccion 2). En consecuencia, P (; y ) 2 W 1;1 ( ). Para (x;y) @P cualquier x 2 tal que @x existe, queremos estimar ju0(x) ? u^0(x)j = ju0 (x) ? dxd P (x; x)j. Notemos que d P (x; x) = f @P (x; y) + @P (x; y ) gj (2.2.17) y=x dx @x @y Estimaciones de Error en L1 - El caso unidimensional 21 Por lo tanto vamos a estimar ju0(y ) ? @P @x(x;y) ? @P @y(x;y) j, 8y 2 BR (x) \ . Como P (x; y ) es un polinomio en y de grado m que interpola a u en m + 1 puntos (Teorema 2.1.1) luego, @P @y(x;y) interpola a u0 en m puntos y en consecuencia, (x; y ) ju0(y) ? @P @y j C kum+1kL1( )Rm 8y 2 BR(x) \ (2.2.18) Por el Lema 2.2.1 sabemos que j @P @x(x;y) j C kum+1 kL1 ( ) Rm , usando esta estimacion junto con (2.2.18) tenemos que (x; y ) @P (x; y ) (x; y ) (x; y ) ju0(y) ? @P @x ? @y j ju0(y) ? @P @y j + j @P @x j C kum+1kL1( )Rm En particular tomando y = x concluimos la demostracion. Es ahora nuestro interes encontrar estimaciones de error para la aproximacion de la derivada segunda, i.e, como aproxima u^00 a u00. La idea en la que se basan estas estimaciones es similar a la usada para la primer derivada. Sin embargo en lugar de usar la relacion de ortogonalidad (2.2.8) vamos a usar una relacion que resulta de derivar esta. A tal n vamos a suponer de ahora en mas que 2 C 1 (IR). Luego por los mismos argumentos que utilizamos antes (ver Observacion 1.1.4) podemos asumir que P (; y ) 2 C 1 ( ). Lema 2.2.2 Para cualquier Q(x; y) polinomio en y de grado m y diferenciable como funcion de x tenemos que n X j =1 0 (x ? j )Q(x; j )(P (x; j ) ? uj ) + n X j =1 (x; j ) =0 (x ? j )Q(x; j ) @P @x (2.2.19) Dem. A partir de que P (x; y) es el mnimo, para cada x 2 y para cualquier Q(x; y) polinomio en y de grado m tenemos que, < u(y ) ? P (x; y); Q(x; y) >x = 0 (2.2.20) Luego como P (; y ) 2 C 1( ) y Q(x; y ) es diferenciable como funcion de x, podemos derivar respecto de x y obtenemos que n X 0 (x ? j )Q(x; j )(P (x; j ) ? uj ) j =1 n X + x; j ) (P (x; ) ? u ) (x ? j ) @Q(@x j j j =1 n X + j =1 (x; j ) (x ? j )Q(x; j ) @P @x =0 22 Captulo 2 (x;y) esta en P y P satisface (2.2.20) el segundo termino es 0 y se tiene Como para cada x, @Q@x m el resultado deseado. Procediendo de manera analoga a la estimacion de error para la primer derivada, vamos en (x;y) para cada x 2 donde existan. Estas estimaciones se primer lugar a estimar @ P@x(x;y) y @ P@x@y presentan en los dos lemas siguientes. 2 2 2 @ 2P (x;y) existe, m 1 y u 2 C m+1 ( ). Si las propiedades 1) a @x2 6) se satisfacen, entonces existe C = C (c0; c1; c2; cp; c# ; m) tal que 8y 2 BR (x) \ 2 y) m?1 kum+1 k 1 (2.2.21) j @ P@x(x; L ( ) 2 j CR Lema 2.2.3 Sea x 2 tal que Dem. Sea x 2 y j ; j ; ; jm como en la demostraci on del Lema 2.2.1. Tomamos h > 0 y (x; y ) @P ( x + h; y ) @P Q 2 Pm denido por Q(y ) = ? @x y @x X S (x) = jQ(j )j2 (2.2.22) 1 2 +1 k2fji g A partir de la propiedad 2) tenemos que X n X (x ? k )Q(k )2 1 (x ? k )Q(k )2 S (x) c1 c0 k=1 0 k2fjig n n (x + h; k ) X X 1 @P = f (x ? k )Q(k ) ? (x ? k )Q(k ) @P (x; k ) g c @x @x 0 k=1 k=1 (2.2.23) Consideremos ahora el primer termino en el lado derecho de la ecuacion (2.2.23). Usando que para h sucientemente peque~no 9k 2 (x ? k ; x + h ? k ) tal que (x ? k ) = (x + h ? k ) ? h0(k ) junto con el Lema 2.2.2 tenemos que n X + h; k ) (x ? k )Q(k ) @P (x@x k=1 n n + h; k ) X X = (x + h ? k )Q(k ) @P (x@x ? h 0(k )Q(k) @P (x@x+ h; k) k=1 n X k=1 (2.2.24) n + h; k ) X 0 = (x + h ? k )Q(k )(uk ? P (x + h; k )) ? h 0 (k )Q(k ) @P (x@x k=1 k=1 Usando nuevamente el resultado obtenido en el Lemma 2.2.2 en el segundo termino del lado derecho de (2.2.23) junto con (2.2.24) tenemos que n X S (x) c1 f 0(x + h ? k )Q(k)(uk ? P (x + h; k )) 0 k=1 Estimaciones de Error en L1 - El caso unidimensional 23 n X ? h 0(k )Q(k) @P (x@x+ h; k ) k=1 n X + 0 (x ? k )Q(k )(P (x; k ) ? uk )g k=1 Como esta en C 2 (BR (0)) \ W 2;1(IR), para h sucientemente peque~no, 9k 2 (x ? k ; x + h ? k ) tal que 0 (x + h ? k ) = 0 (x ? k )+00 (k )h. Luego, reemplazando en el primer termino obtenemos n X 1 S (x) c f 0(x ? k )Q(k )(P (x; k ) ? P (x + h; k )) 0 k=1 n + h; k ) X + h 00(k )Q(k )(uk ? P (x; k ))g 0(k )Q(k ) @P (x@x k=1 k=1 n X c1 f j0(x ? k )jjQ(k)jjP (x; k) ? P (x + h; k )j ? h n X 0 k=1 n X + h n X j0(k )jjQ(k)jj @P (x@x+ h; k ) j + h j00(k)jjQ(k)jjuk ? P (x; k)jg k=1 k=1 Desde la desigualdad (2.2.15), el Lema 2.2.1, el Corolario 2.1.1, el hecho de que 0 y 00 tienen soporte contenido en BR (0) y las propiedades 3) y 6) concluimos que X c1 jQ( )jRm + X c2 jQ( )jRm+1g k k 2 k 2B R (x) R k 2B R (x) R S (x) Chkum+1 kL1 ( )f 2 y en consecuencia, 2 S (x) Chkum+1kL1 ( )Rm?1 X k 2B2R(x) jQ(k)j Usando el mismo argumento que utilizamos en la demostracion del Lema 2.2.1 tenemos que jQ(y)j C kum+1k 1 Rm?1 (2.2.25) L ( ) h y luego, si x es tal que @ P@x(x;y) existe, tomando h ! 0 nalizamos la demostracion. 2 2 Lema 2.2.4 Sea x 2 , m 1 y u 2 C m+1( ). Si las propiedades 1) a 6) se tienen entonces, existe C = C (c0; c1; c2; cp; c#; m) tal que 8y 2 BR (x) \ 2 (x; y ) j @ P@x@y j C kum+1kL1( )Rm?1 Dem. Sea x 2 y sean j ; ; jm como en la demostracion del Lema 2.2.1. Como P (x; ) 2 Pm podemos escribir P (x; y ) = Pk2fjig P (x; k)lk (y ) donde lk (y ) (con k 2 fji; 1 i m + 1g ) son las bases de Lagrange de grado m asociadas con los puntos j ; ; jm . Por la propiedad 6) tenemos que 1 +1 1 +1 24 Captulo 2 P es de clase C 1 en la primer variable. En consecuencia para cualquier x tenemos que @ 2 P (x; y) = X @P (x; k ) l0 (y ) @x@y @x k k2fji g Notemos que por el Lema 2.2.1 sabemos que 8y 2 BR (x) \ : j @P @x(x;y) j C kum+1 kL1 ( ) Rm . Luego 2 X @P (x; k) 0 X 0 j jjl (y)j C kum+1k 1 Rm jl (y)j (2.2.26) j @ P (x; y) j @x@y L ( ) k @x k2fji g k2fji g k Las bases de Lagrange lk pueden calcularse facilmente y es sencillo ver que satisfacen jl0k (y )j c with c = c(cp; m) si la propiedad 4) se tiene. Usando ahora esta estimacion en (2.2.26) y la propiedad 5) obtenemos el resultado deseado . Con los resultados previos estamos en condiciones de estimar el error cometido al aproximar u00 por u^00 Teorema 2.2.2 Sea m 1, si u 2 C m+1( ) y las propiedades 1) a 6) se satisfacen entonces, existe C = C (c0; c1; c2; cp; c#; m) tal que ku00 ? u^00kL1 ( ) C kum+1kL1( )Rm?1 (2.2.27) (x;y) Dem. Notemos que como 2 C 2(BR(0)) \ W 2:1( ) luego, @ P@x@y existe cualquiera sea x e y (x;y) @ P en y @x existe para todo x salvo un conjunto nito de puntos y por lo tanto P (; y ) 2 2 IR 2 2 W 2;1 ( ). (esto se puede ver usando nuevamente el mismo argumento que antes) . Dado cualquier x 2 , tal que @ P@x(x;y) existe, queremos estimar ju00(x) ? u^00(x)j = ju00(x) ? d dx P (x; x)j. Notemos que d2 P (x; x) = f @ 2 P (x; y) + 2 @ 2P (x; y) + @ 2P (x; y) gj (2.2.28) y =x dx2 @x2 @x@y @y2 Por lo tanto, 8y 2 BR (x) \ 2 2 (x; y ) @ 2P (x; y ) ju00(y) ? @ P@y(2x; y) ? 2 @ P@x@y ? @x2 j 2 y) @ 2P (x; y ) j + j @ 2P (x; y) j ju00(y) ? @ P@y(x; j + 2 j (2.2.29) 2 @x@y @x2 2 2 2 2 Observemos que, @ P@y(x;y) es un polinomio de grado m ? 2 que interpola u00 en m ? 1 puntos y en consecuencia 2 ju00(y) ? @ P (x; y) j C kum+1k 1 Rm?1 8y 2 B (x) \ (2.2.30) 2 2 @y 2 L ( ) R Usando esta estimacion en (2.2.29) junto con los resultados obtenidos en los Lemas 2.2.3 y 2.2.4 la demostracion concluye tomando y = x . Estimaciones de Error en L1 - El caso unidimensional 25 Observacion 2.2.1 Por lo mencionado en el Captulo 1, seccion 1.2.1 las estimaciones obtenidas en (2.1.4) y (2.2.16) garantizan la convergencia de MLS cuando es aplicado para obtener aproximaciones de Galerkin para resolver problemas coercivos de segundo orden o para problemas de segundo orden para los cuales la forma bilineal satisfaga la condicion inf-sup. Ademas, como se menciono en la seccion 1.2.2 las estimaciones obtenidas para las dos primeras derivadas (2.2.16) y (2.2.27) proporcionan junto con (2.1.4) la consistencia del esquema resultante cuando MLS es utilizado como metodo de colocacion para resolver problemas de segundo orden. Como mencionamos en la seccion 1.2.3 del Captulo 1 nuestras estimaciones de error proveen, en particular, las estimaciones de error necesarias para demostrar la consistencia de los esquemas resultantes cuando MLS es utilizado para obtener formulas de diferencias nitas como propone Orkisz [28]. El siguiente resultado establece estas estimaciones. Teorema 2.2.3 (sobre la aproximacion de Orkisz) k? P Dado x 2 y sea f1; y ? x; (y?2x) g una base de PP2 y P (x; y ) = 3k=1 ak (x) (y(?k?x)1)! donde los coecientes ak (x) son determinados minimizando nj=1 (x ? j )(uj ? (a1(x) + a2 (x)(j ? x) + 1 2 a3 (x) (j ?2x) ))2 si las hipotesis del teorema 2.2.2 se satisfacen, entonces existe una constante C 2 tal que ju(k)(x) ? ak+1 (x)j C ku000kL1( )R3?k k = 0; 1; 2 donde u(k) denota la k-esima derivada de u para k = 1; 2 y u(0) = u (2.2.31) Dem. Dado x 2 y P (x; y) = a1(x)+ a2(x)(y ? x)+ a3(x) (y?2x) notemos que u^(x) = P (x; x) = 2 a1 (x) y en consecuencia, la estimacion del error cometido al aproximar u(x) por a1(x) esta dada por (2.1.4). Orkisz propone considerar a2 (x) y a3(x) para aproximar las dos primeras derivadas de u(x) en lugar de considerar las derivadas de u^(x). Por (2.2.18) y (2.2.30) sabemos que 8y 2 BR (x) \ (x; y ) ju0(y) ? @P @y j C ku000 kL1( )R2 2 y) 000 ju00(y) ? @ P@y(x; 2 j C ku kL1 ( ) R Pero cualquiera sea y , @P @y(x;y) = a2(x)+ a3 (x)(y ? x) y @ P@y(x;y) = a3(x) tomando entonces y = x se tienen las estimaciones deseadas. 2 2 Observacion 2.2.2 Es importante se~nalar que las ideas desarrolladas para obtener estimaciones de error al aproximar las dos primeras derivadas pueden generalizarse para obtener estimaciones de error para derivadas de orden superior. Cap tulo 3 Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional A lo largo de este captulo vamos a demostrar, para el caso N-dimensional, que bajo hipotesis apropiadas sobre la funcion de peso y la distribucion de puntos, MLS tiene orden optimo en L1 y en L2 para la aproximacion de la funcion y sus primeras derivadas. A n de facilitar la lectura del presente Captulo, vamos a recordar que, dado R > 0, R la funcion nonegativa con soporte en BR (0) y XR = f1; ; ng el conjunto de n = n(R) puntos dados en IRN un conjunto abierto, acotado y con borde Lipschitz, denotamos, como antes, fp1; ; psg una base de Pm, s = dim Pm y para cada x 2 , u^(x) = P (x; x) la aproximacion a u(x) denida en (1.1.3). Para poder llevar a cabo nuestro analisis de error vamos a establecer, en primer lugar, las propiedades que consideraremos sobre la funcion de peso y la distribucion de puntos. Si bien las condiciones que estableceremos sobre la funcion de peso R son analogas a las del caso unidimensional, una de las dicultades que se presentaba en este caso, a diferencia del caso unidimensional, es que si bien debamos establecer condiciones sobre la distribucion de los puntos dados (XR = f1; ; n g), estas condiciones fuesen bastantes generales de forma de no perder una de las caractersticas sobresalientes de MLS que es el hecho de que no se necesita generar una \malla" cuando es utilizado para la resolucion numerica de ecuaciones diferenciales. A tal n, vamos a suponer, como se enunciara en la propiedad 1), que la distribucion de puntos es tal que cualquiera sea x 2 podemos seleccionar un subconjunto de s puntos en un entorno de x de forma tal que la interpolacion de Lagrange sea posible y tal que las bases de Lagrange asociadas a dichos puntos satisfagan las acotaciones que enunciaremos en las propiedades 4) y 5). En las propiedades que enunciaremos a continuacion todas las constantes que aparecen son independientes de R. Nuevamente, a n de simplicar notacion, descartaremos el subndice R al referirnos a R . 1. Para cada x 2 existe un subconjunto de s puntos pertenecientes a XR \ B R (x) donde la interpolacion de Lagrange es posible. 2. 9c0 > 0 tal que (z ) c0 8z 2 B R (0). 2 2 26 Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional 27 3. 9c# tal que para todo x 2 , cardfj 2 B2R (x); 1 j ng < c# . 4. Cualquiera sea x 2 existe una constant cL tal que las funciones base de Lagrange asociadas con los puntos de la propiedad 1) estan acotadas por una constante cL en B2R (x). 5. Para cualquier x 2 existe una constante c0L tal que las derivadas de las funciones base0 de Lagrange asociadas con el conjunto de puntos de la propiedad 1) estan acotadas por cRL en B2R(x). 6. 2 C 1(BR (0)) \ W 1;1 (IRN ) y 9c1 > 0 tal que kr(z )kL1 (IRN ) cR . 1 3.1 Estimaciones de Error en L1 y W 1 1 ; En esta seccion vamos a obtener estimaciones de error en L1 , en terminos del parametro R, para la aproximacion de u y sus primeras derivadas. Es importante notar que en el caso unidimensional cualquiera sea x 2 , P (x; ) es un polinomio de grado m que interpola a la funcion u como se demostro en el Teorema 2.1.1, hasta donde sabemos, no se ha establecido si esto es tambien cierto en mas dimensiones. Por lo tanto vamos a ocuparnos, en primer lugar, de establecer cual es el orden con que u^ aproxima a u. Teorema 3.1.1 Sea x 2 , si las propiedades 1) a 4) se tienen existe una constante C la cual depende de c0 ; c# y cL tal que 8y 2 BR (x) \ : (3.1.1) ju(y) ? P (x; y)j C ku ? PI (x; )kL1(BR(x)\ ) donde PI (x; ) es el polinomio en Pm que interpola a u en los puntos 2 XR \ B R (x) que satisfacen la propiedad 1). En particular tomando y = x tenemos que 2 ju(x) ? u^(x)j C ku ? PI (x; )kL1(BR(x)\ ) (3.1.2) donde u^(x) = P (x; x) Dem. Dado x 2 , en vista de la propiedad 1) existen puntos j ; j ; ; js 2 XR \ B R (x) tal que las funciones base de Lagrange lji ( lji 2 Pm tal que lji (jk ) = ik , 1 i s), estan bien denidas. Llamemos PI (x; ) al polinomio de grado m que interpola a u en los puntos j ; j ; ; js . Usando ahora la propiedad 2) y el hecho de que P (x; ) realiza el mnimo tenemos que 1 2 2 1 X k2fji g X (u(k ) ? P (x; k ))2 1 (x ? k )(u(k ) ? P (x; k ))2 c0 k2fjig n X c1 (x ? k )(u(k) ? P (x; k))2 0 k=1 2 (3.1.3) 28 Captulo 3 n X c1 (x ? k )(u(k) ? PI (x; k))2 0 k=1 X 2 = 1 c0 k 2BR(x) (x ? k )(u(k ) ? PI (x; k )) C (c0; c#)ku ? PI (x; )k2L1(BR(x)\ ) Observemos que 8y 2 BR (x) \ podemos escribir X X jPI (x; y) ? P (x; y)j2 s jlk(y)j2jPI (x; k ) ? P (x; k)j2 = s jlk(y)j2ju(k) ? P (x; k)j2 k2fji g k2fji g (3.1.4) Usando entonces la propiedad 4) y la acotacion obtenida en (3.1.3) tenemos que jPI (x; y) ? P (x; y)j C (c0; c#; cL)ku ? PI (x; )kL1(BR(x)\ ) (3.1.5) y en consecuencia ju(y) ? P (x; y)j C ku ? PI (x; )kL1(BR(x)\ ) 8y 2 BR(x) \ En particular tomando y = x concluimos la demostracion Ahora vamos establecer las estimaciones de error para la aproximacion de las primeras derivadas de u. Estas estimaciones se obtienen como una consecuencia del siguiente Lema, el cual es una generalizacion del Lema 2.2.1 del Captulo 2. @P (x;y) existe para j = 1; ; N . Si las propiedades 1) a 6) se @xj tienen , existe una constante C = C (c0; c#; c1; cL) tal que 8y 2 BR (x) \ , j = 1; ; N : j @P@x(x; y) j CR ku ? PI (x; )kL1(B2R(x)\ ) (3.1.6) j Lema 3.1.1 Sea x 2 tal que Dem. Por simplicidad vamos a demostrar el resultado para j = 1 (claramente el mismo argumento se aplica a cualquier j ). Dado x 2 , en vista de la propiedad 1) existen puntos j ; j ; ; js 2 XR \ B R (x) tal que el polinomio que interpola a u en esos puntos existe. Para simplicar notacion denotamos fjig al conjunto de indices fj1; ; jsg. Para cualquier h > 0 denimos X S (x) = jP ((x1 + h; x2; ; xN ); k) ? P (x; k)j2 (3.1.7) 1 2 2 k2fji g Luego, por la propiedad 2) X S (x) c1 (x ? k )(P ((x1 + h; x2; ; xN ); k ) ? P (x; k ))2 0 k2fji g n 1X c (x ? k )(P ((x1 + h; x2; ; xN ); k) ? P (x; k))2 (3.1.8) 0 k=1 n X = c1 (x ? k )(P ((x1 + h; x2 ; ; xN ); k ) ? P (x; k ))(P ((x1 + h; x2; ; xN ); k ) ? u(k )) 0 k=1 n X + 1 (x ? k )(P ((x1 + h; x2 ; ; xN ); k ) ? P (x; k ))(u(k ) ? P (x; k )) c0 k=1 Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional 29 Sea ahora Q el polinomio de grado m denido por Q(y ) = P ((x1 + h; x2 ; ; xN ); y ) ? P (x; y ), luego como P es la proyeccion ortogonal bajo el producto <; >x tenemos que < u(y ) ? P (x; y ); Q(y ) >x = y se sigue que n X k=1 (x ? k )Q(k )(u(k ) ? P (x; k )) = 0 (3.1.9) n X S (x) c1 (x ? k )Q(k )(P ((x1 + h; x2; ; xN ); k) ? u(k )) 0 k=1 (3.1.10) Usando la propiedad 6) podemos garantizar que 9k = (k ; x) tal que si h es sucientemente @ (k )h. Reemplazando en (3.1.10) obtenemos peque~no (x ? k ) = ((x1 + h; x2; ; xN ) ? k ) ? @x 1 n X S (x) c1 ((x1 + h; x2; ; xN ) ? k )Q(k )(P ((x1 + h; x2; ; xN ); k ) ? u(k )) 0 k=1 n @ X ? ch @x (k )Q(k )(P ((x1 + h; x2; ; xN ); k ) ? u(k )) 0 k=1 1 Usando ahora la relacion de ortogonalidad < u(y ) ? P ((x1 + h; x2; ; xN ); y ); Q(y) >(x +h;x ;;xN ) = 0 1 2 @ tiene soporte compacto junto con la propiedad 6) resulta que y el hecho de que @x 1 n @ X S (x) ch @x (k )Q(k )(u(k ) ? P ((x1 + h; x2; ; xN ); k )) 0 k=1 1 n @ X ch j @x (k )jjQ(k)jj(P ((x1 + h; x2; ; xN ); k ) ? u(k ))j 0 k=1 1 hc1 X jQ( )jj(P ((x + h; x ; ; x ); ) ? u( ))j Rc k 1 2 N k k 0 k 2B R(x) 2 Si ahora aplicamos el resultado del Teorema 3.1.1 pero para (x1 + h; x2; ; xN ) 2 tendramos que j(P ((x1 + h; x2; ; xN ); k) ? u(k ))j C ku ? PI ((x1 + h; x2; ; xN ); )kL1(BR(x +h;x ;;xN )\ ) C ku ? PI ((x1 + h; x2; ; xN ); )kL1(B R(x)\ ) donde PI ((x1 + h; x2 ; ; xN ); ) denota al polinomio que interpola a u en s puntos pertenecientes a la bola BR (x1 + h; x2; ; xN ) los cuales existen gracias a la propiedad 1). Pero notemos que, para h sucientemente chico, podemos suponer que los puntos fj ; ; js g 2 B R (x) \ XR estan en B R ((x1 + h; x2; ; xN ), y por lo tanto el PI ((x1 + h; x2 ; ; xN ); ) puede ser elegido como el polinomio que interpola a u en esos s puntos, i.e, como PI (x; ) y en consecuencia se sigue que 1 2 2 1 2 2 X S (x) C Rh ku ? PI (x; )kL1(B R(x)\ ) jQ(k)j 2 k 2B2R (x) (3.1.11) 30 Captulo 3 Como Q es un polinomio de grado m este puede escribirse en termino de las funciones base de Lagrange asociadas a los puntos fj ; ; js g X Q(y) = Q(r)lr (y) (3.1.12) 1 r2fji g Luego X k 2B2R (x) jQ(k )j X r2fjig jQ(r)j( X jlr(k )j) k2B2R (x) acota a lr Gracias a la propiedad 4), existe una constante cL que con la propiedad 3) se sigue que X X ( jQ(k)j)2 s jQ(k )j2 = sS (x) k2fji g 8r 2 fjig y usando esto junto (3.1.13) k2fji g X jQ(k )j C Rh ku ? PI (x; )kL1(B R(x)\ ) k2fji g 2 y en consecuencia, X k2fjig jQ(k)j C Rh ku ? PI (x; )kL1(B R(x)\ ) (3.1.14) 2 Usando esto en (3.1.12) y la propiedad 4) nuevamente obtenemos que 8y 2 BR (x) \ jQ(y)j = jP ((x1 + h; x2; ; xN ); y) ? P (x; y)j C ku ? P (x; )k 1 (3.1.15) I L (B R (x)\ ) h h R 2 y la demostracion concluye tomando h ! 0. Ahora estamos en condiciones de enunciar el siguiente Teorema el cual establece el orden de aproximacion para las derivadas. Teorema 3.1.2 Si las propiedades 1) a 6) se tienen, existe una constante C = C (c0; c1; c#; cL; c0L) tal que para cualquier x 2 y 1 j N tenemos j @x@ (u ? u^)(x)j C f R1 ku ? PI (x; )kL1(B R(x)\ ) + k @x@ (u ? PI (x; ))kL1(BR(x)\ )g (3.1.16) j j 2 Dem. Queremos estimar j @x@ j fu(x) ? P (x; x)gj para 1 j N . Dado que podemos escribir @ P (x; x) = f @P (x; y) + @P (x; y ) @yj g @xj @xj @yj @xj y @P (x;y) @P (x;y) (3.1.17) x = es suciente estimar j @u@y(jy) ? @xj ? @yj j, 8y 2 BR (x) \ . Tomemos nuevamente PI (x; ) como el polinomio que interpola a u en los s puntos que existen por la propiedad 1) luego j @u(y) ? @P (x; y) ? @P (x; y) j j @u(y) ? @PI (x; y) j + j @PI (x; y) ? @P (x; y) j + j @P (x; y) j @yj @xj @yj @yj @yj @yj @yj @xj (3.1.18) Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional 31 Dado que, para cada x 2 y cualquier y 2 BR (x) \ , PI (x; y ) ? P (x; y ) puede escribirse como PI (x; y) ? P (x; y ) = X k2fji g lk (y)(PI (x; k ) ? P (x; k )) derivando respecto de y tenemos que X @lk(y) X @lk(y) j @PI (x; y) ? @P (x; y) j j jjPI (x; k) ? P (x; k)j = j jju(k) ? P (x; k)j @yj @yj k2fji g @yj k2fjig @yj y usando ahora la propiedad 5) y (3.1.5) tenemos que j @PI@y(x; y) ? @P @y(x; y) j CR ku ? PI (x; )kL1(BR(x)\ ) j j (3.1.19) (3.1.20) Usando este resultado en (3.1.18) junto con el Lema 3.1.1 concluimos la demostracion. Dado que nuestras estimaciones de error, tanto para la aproximacion de la funcion como la de sus derivadas, estan en funcion del error cometido al interpolar u mediante PI , nuestro problema se reduce a estimar el error cometido en dicha interpolacion. Si suponemos que las funciones base de Lagrange, asociadas con los puntos dados por la propiedad 1), satisfacen las propiedades 4) y 5), dichas estimaciones de error se siguen desde las estimaciones de error clasicas en interpolacion. Llamamos jj Dv = @x@ v xN 1 1 N donde = (1 ; ; N ), con i 2 IN0 para 1 i n y jj = 1 + + N . El siguiente resultado establece las estimaciones de error deseadas, que se desprenden de las estimaciones de error clasicas en teora de interpolacion (ver, por ejemplo, [19]). Teorema 3.1.3 Sea x 2 , u 2 C m+1( ) y supongamos que las propiedades 1), 4) y 5) se tienen, existe una constante C = C (cL; c0L) tal que 8y 2 B2R (x) \ , ju(y) ? PI (x; y)j C maxjj=m+1kDukL1( )Rm+1 (3.1.21) m maxjj=1jD (u(y ) ? PI (x; y ))j C maxjj=m+1 kD ukL1 ( ) R (3.1.22) donde PI (x; ) es el polinomio que interpola a u en los puntos dados por la propiedad 1). Dem. Vamos a presentar la demostracion para el caso m = 2 (en [19] se demuestra el resultado para el caso m = 1), con herramientas similares se puede generalizar la demostracion para cualquier otro valor de m. Dado x 2 sean j ; ; js los puntos pertenecientes a B R (x) \ XR en los cuales, gracias a la propiedad 1), la interpolacion de Lagrange es posible. El polinomio PI (x; ) 2 P2 que interpola a u en esos puntos puede escribirse, cualquiera sea y 2 B2R (x) \ , como 1 2 PI (x; y) = s X i=1 uji lji (y) (3.1.23) 32 Captulo 3 donde uji = u(ji ) y lji denota las bases de Lagrange asociadas a j ; ; js . A partir de que u 2 C 3( ) cualquiera sea z y cualquier y en BR (x) \ podemos escribir 1 N @u X N @ 2u X 1 (y )(zi ? yi )(zj ? yj ) u(z) = u(y ) + @y (y )(zj ? yj ) + 2 i;j =1 @yi @yj j =1 j N X @ 3u ( )(z ? y )(z ? y )(z ? y ) + 16 ijk i i j j k k i;j;k=1 @yi @yj @yk = u(y ) + p(z; y ) + q (z; y ) + r(z; y ) Si usamos (3.1.24) en los puntos j ; ; js y reemplazamos en (3.1.23) obtenemos 1 PI (x; y ) = u(y ) + s X i=1 s X i=1 lji (y ) + s X i=1 q(ji ; y)lji (y ) + p(ji ; y)lji (y) s X i=1 (3.1.24) (3.1.25) r(ji ; y)lji (y) Mediante simples calculos, basados principalmente en el hecho de que para cualquier v 2 P2 el polinomio de interpolacion de grado menor o igual a 2, llamesmoslo PI (v ), satisface PI (v ) = v , puede verse que s X i=1 s X i=1 s X i=1 lji (y ) 1 p(ji ; y )lji (y) 0 q (ji ; y )lji (y ) 0 Usando esto en (3.1.25) y quien es r(z; y ) tenemos que para cualquier y 2 BR (x) \ ju(y) ? PI (x; y)j s X i=1 jr(ji ; y)jjlji(y)j s X 3 c maxjj=3 kD ukL1 ( ) R jlji (y )j i=1 (3.1.26) y usando ahora la propiedad 4) obtenemos la primer estimacion de error. Ps @lji I Resta ver la estimacion para las derivadas. Derivando (3.1.23) se tiene @P @yk (x; y ) = i=1 uji @yk (y ) y usando (3.1.24) en los puntos j ; ; js obtenemos 1 s @l s @PI (x; y ) = u(y ) X ji (y ) + X p( ; y ) @lji (y ) 1 l N ji @y @yl l i=1 @yk i=1 s s X ji (y ) + X r( ; y ) @lji (y ) + q (ji ; y ) @l ji @y @yl l i=1 i=1 (3.1.27) Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional 33 Usando nuevamente el hecho de que para cualquier funcion v 2 P2 el polinomio de grado menor o igual que 2 que interpola a v en los puntos 1; ; s satisface PI (v ) = v , por simples calculos puede verse que para 1 l N se tiene que s @l X ji i=1 @yl s X i=1 s X i=1 (y ) 0 ji (y ) = @u (y ) p(ji ; y ) @l @y @y l ji q(ji ; y) @l @y (y) 0 l l y en consecuencia reemplazando en (3.1.27) tenemos que @u (y ) ? @PI (y )j j @y @y l l s X i=1 ji (y )j jr(ji ; y)jj @l @y l c maxjj=3kDukL1( )R3 s @l X j @yji (y)j i=1 l (3.1.28) Usando ahora la propiedad 5) obtenemos la estimacion para la derivada y la demostracion concluye. Como una consecuencia inmediata de este Teorema y las estimaciones de error dadas por los Teoremas 3.1.1 y 3.1.2 tenemos el siguiente resultado el cual establece las estimaciones de error al aproximar u y sus derivadas de primer orden mediante u^ y sus primeras derivadas. Corolario 3.1.1 Si las propiedades 1) a 6) se tienen y u 2 C m+1( ) existe una constante C , la cual depende de c0; c#; c1; cL; c0L, tal que para cada x 2 ju(x) ? u^(x)j C maxjj=m+1kD ukL1( )Rm+1 (3.1.29) jr(u ? u^)(x)j C maxjj=m+1kD ukL1( )Rm (3.1.30) 3.2 Estimaciones de Error en L2 y H 1 En las estimaciones de error de la seccion previa obtuvimos orden optimo en L1 y W 1;1 bajo la suposicion de que la funcion u 2 C m+1 ( ). Si bien es cierto que estos resultados claramente implican estimaciones de error con orden optimo en L2 y H 1, en muchos casos en los que se desea llevar a cabo la aproximacion, la funcion a aproximar es menos regular que lo que hasta ahora hemos supuesto (como suele suceder cuando la funcion a aproximar es la solucion de alguna ecuacion diferencial). Era entonces de gran interes probar que los mismos ordenes de convergencia que se obtuvieron se mantenan si la funcion a estimar era menos regular, digamos u 2 H m+1( ). Como hemos comentado previamente, no se contaba con esta clase de estimaciones de error ni para la funcion ni para las derivadas. En consecuencia, las estimaciones de error que presentaremos a continuacion es otro de los logros importantes de esta tesis. 34 Captulo 3 Sean f1; ; lg puntos en tales que [li=1 BR (i ) y el numero de las bolas que se superponen esta acotado independientemente de R. Vamos a denotar por jjH m ( ) la seminorma en H m+1( ), i.e, X jf jH m ( ) = ( kD f k2L ( )) +1 +1 1 2 2 j j=m+1 donde D f denota la derivada dedil de f de orden j j. Nuestro proposito es estimar ku ? u^kL (BR(j )\ ) cualquiera sea j 2 f1; ; lg 2 Teorema 3.2.1 Sea m + 1 > N2 . Si las propiedades 1) a 4) se tienen y u 2 H m+1( ) existe una constante C que depende de c0; c# ; cL tal que, 8j 2 f1; ; lg ku ? u^kL (BR(j )\ ) CRm+1jujH m (B R(j )\ ) (3.2.1) 2 +1 2 Dem. Cualquiera sea j 2 f1; ; lg queremos estimar Z Z ju(y) ? u^(y)j2dy = ju(y) ? P (y; y)j2dy BR(j )\ BR (j )\ (3.2.2) A partir de la propiedad 1), cualquiera sea y 2 BR (j ) \ existe un subconjunto de s puntos de XR , llamemoslos j ; ; js , que estan en la bola B R (y ) de manera que la interpolacion de Lagrange es posible. LLamemos PI (f )(y; ) al polinomio de grado m que interpola a f en esos puntos. A partir del resultado obtenido en el Teorema 3.1.1 tenemos que 1 Z BR (j )\ 2 ju(y) ? P (y; y)j2dy C Z BR (j )\ ku ? PI (u)(y; )k2L1(BR(y)\ )dy (3.2.3) Cualquiera sea y 2 tomemos T m u un polinomio de grado menor o igual a m tal que si u 2 H m+1( ) tenemos que ku ? T mukL1 (BR(y)\ ) CRm+1? N jujH m 2 ku ? T mukH j (BR(y)\ ) +1 (BR (y)\ ) CRm+1?j jujH m+1(BR(y)\ ) m + 1 > N2 (3.2.4) 0jm La existencia de un polinomio con esas caractersticas y el analisis de como dependen las constantes respecto del dominio donde se realiza la aproximacion, ha sido estudiado en distintos trabajos ([14], [15], [34]). Es importante notar que para contar con estas estimaciones necesitamos que, para cualquier y 2 BR (j ) \ el conjunto BR (y ) \ sea estrellado respecto de alguna bola, i.e , existe una bola B tal que para cualquier z 2 BR (y ) \ la capsula convexa de fz g [ B esta contenida en BR (y ) \ . En vista de que tiene borde Lipschitz esta condicion se tiene si tomamos R sucientemente chico. Una posible eleccion de T m , ver por ejemplo [7], es la siguiente: Llamemos e = BR (y ) \ . Dada u 2 H m+1 ( e ) y sea B una bola contenida en e denimos el polinomio de Taylor centrado en z de grado m X 1 Tzm u(x) = D u(z)(x ? z ) ! j jm Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional 35 con 2 INN0 , j j = 1 + + N , ! = 1 ! N !, (x ? z ) = (x1 ? z1 ) (xN ? zN )N y D f = ( @x@ ) ( @x@N )N , En general, si u esta en H m+1( ), D puede no existir y es claro que no se podra denir un polinomio de Taylor para tal funcion, esto se soluciona deniendo un `promedio' de los polinomios Tzm u(x) de la siguiente manera 1 1 1 T m u(x) = 1 Z T m u(x)dz jBj z B el cual satisface (3.2.4) (una demostracion de este hecho puede verse en [7]). Como T m u es un polinomio de grado m , PI (T m u) = T m u y podemos escribir ku ? PI (u)(y; )kL1(BR(y)\ ) ku ? T mukL1(BR(y)\ ) + kPI (T mu ? u)kL1(BR(y)\ ) (3.2.5) P Dado que, para cualquier funcion v 2 L1 (BR (y ) \ ), PI (v ) = si=1 v (ji )lji , con lji las bases de Lagrange asociadas a los puntos j ; ; js . Usando la propiedad 4) tenemos que kPI (v)kL1(BR(y)\ ) C kvkL1(BR(y)\ ) donde la constante C depende de cL (cota de las bases de Lagrange). Luego, usando este resultado, con v = T m u ? u, en (3.2.5) junto con (3.2.4) resulta que 1 ku ? PI (u)(y; )kL1(BR(y)\ ) C ku ? T m ukL1(BR(y)\ ) CRm+1? N jujH m 2 y en consecuencia Z f BR (j )\ ju(y) ? P (y; y)j2dyg 21 Z CRm+1? N2 f m+1? N ZBR(j )\ juj2H m CR f juj2 m BR(j )\ H CRm+1jujH m (B R(j )\ ) 2 +1 +1 (BR(y)\ ) (3.2.6) (BR (y)\ )dy g 2 1 +1 (B2R (j )\ ) dy g 2 1 +1 2 arribando as al resultado deseado. Ahora nos vamos a ocupar de obtener las estimaciones de error para las derivadas. A tal n vamos a hacer uso de las estimaciones de error en L1 que obtuvimos en las seccion 3.1. Teorema 3.2.2 Sea m + 1 > N2 . Si las propiedades 1) a 6) se tienen y u 2 H m+1( ). Luego, existe una constante C la cual depende de c0 ; c#; c1; cL; c0L tal que 8j 2 f1; ; lg kr(u ? u^)kL (BR(j )\ ) CRmkukH m (B R(j)\ ) (3.2.7) Dem. Consideremos RBR(j )\ j @y@uk (y) ? @y@k P (y; y)j2dy para k = 1; ; N . En virtud de la propiedad 1), cualquiera sea j , 1 j l podemos construir un polinomio PI (j ; ) que interpole a u en un subconjunto de s puntos de f1; ; ng que pertenezcan a la bola B R (j ) luego, Z Z @u @ @u (y ) ? @PI ( ; y)j2dy (3.2.8) 2 j @y (y) ? @y P (y; y)j dy cf j @y @yk j BR (j )\ k BR (j )\ k k Z I ( ; y ) ? @ P (y; y )j2dy g + j @P @y j @y 2 +1 3 2 BR (j )\ k k 36 Captulo 3 Vamos a analizar, en primer lugar, el segundo termino en el lado derecho de (3.2.8). Cualquiera sea y 2 BR (j ) \ y z 2 BR (y ) \ notemos que @ P (y; y ) = f @P (y; z ) + @P (y; z )g @yk @yk @zk z @P @P y = I En vista de esto vamos a estimar j @P @zk (j ; z ) ? ( @yk (y; z )+ @zk (y; z ))j para cualquier z 2 BR (y ) \ . Sea T m u como en el Teorema anterior, i.e, el polinomio de grado menor o igual que m que satisface (3.2.4). Usando la estimacion obtenida en el Lema 3.1.1 y con el mismo argumento que usamos para obtener (3.2.6) podemos concluir que para cualquier z 2 BR (y ) \ N j @P (y; z )j C ku?PI (y; )kL1(BR(y)\ ) C ku?T m ukL1 (BR(y)\ ) CRm? jujH m @y R R 2 k +1 (B2R (j )\ ) @P I Vamos ahora a estimar j @P @zk (j ; z ) ? @zk (y; z )j. Como (3.2.9) I ( ; z ) ? @P (y; z )j j @PI ( ; z ) ? @P ( ; z )j + j @P ( ; z ) ? @P (y; z )j (3.2.10) j @P @z j @z @z j @z j @z j @z k k k k k k Usando la acotacion obtenida en (3.1.20) en el primer termino del lado derecho de (3.2.10), y por el mismo argumento que utilizamos para obtener (3.2.6) se sigue que I ( ; z ) ? @P ( ; z )j C ku ? P ( ; )k 1 m? N juj m j @P CR j j I j L ( B ( ) \ ) H j R @z @z R k 2 k +1 (BR (j )\ ) (3.2.11) Miremos ahora el segundo termino del lado derecho de (3.2.10), notemos que, dado y 2 BR (j ) \ , @P (j ; z ) y @P (y; z ) son polinomios en z de grado m ? 1. Sean ahora fj ; ; j g 2 B R (y ) s @zk @zk los puntos en los que, en virtud de la propiedad 1), podemos construir las bases de Lagrange las cuales satisfacen las propiedades 4) y 5), luego se sigue que 1 2 s @l X @P @P j @z (y; z) ? @z (j ; z)j = j @zji (z)(P (j ; ji ) ? P (y; ji ))j k k i=1 k s X CR jry P (j ; ji ) (j ? y)j i=1 Usando ahora el Lema 3.1.1 (es facil ver que el resultado (2.2.5) puede extenderse a puntos en la bola de radio 2R) y por los mismos argumentos utilizados para arribar a (3.2.6) resulta que @P ( ; z )j C ku ? P ( ; )_k 1 m? N juj m j @P ( y; z ) ? CR j I j L ( B ( ) \ ) H j R @z @z R k k 2 2 +1 (B3R (j )\ ) (3.2.12) Por lo tanto, en vista de (3.2.12),( 3.2.9), (3.2.11), cualquiera sea z 2 BR (y ) \ tenemos que I ( ; z ) ? ( @P (y; z ) + @P (y; z ))j CRm? N juj m j @P H @z j @y @z k k k 2 +1 (B3R (j )) Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional 37 en particular tomando z = y tenemos que Z f BR (j )\ I ( ; y ) ? @ (P (y; y ))j2dy g CRm juj m j @P H @y j @y k 1 2 k +1 (3.2.13) (B3R (j )\ ) Consideremos ahora el primer termino del lado derecho de (3.2.8), usando nuevamente que PI (T m u) = T mu podemos escribir @u ? @PI ( ; )k @u ? @T m u k @PI m k @y k j L ( B ( ) \ ) L (BR (j )\ ) + k @y (u ? T u)kL (BR (j )\ ) j R @y @y @y k k k k k 2 2 2 (3.2.14) Para cualquier v 2 L1 (BR (j ) \ ), dado que las bases de Lagrange satisfacen la propiedad 5) tenemos que, s @l X @P I 1 k @y (v)kL (BR(j )\ ) kvkL (BR(j )\ ) k @yji (y)kL (BR(j )\ ) C kvkL1(BR(j )\ )R N ?1 k k i=1 Si v 2 H 2(BR (j ) \ ) por los Teoremas de inmersion de Sobolev sabemos ademas que 2 2 2 kvkL1(BR(j )\ ) cfR? N kvkL (BR(j )\ )+R? N +1kDvkL (BR(j)\ )+R? N +2kD vkL (BR(j)\ )gjj=1;jj=2 2 2 2 2 2 2 En vista de estas estimaciones y (3.2.4) el segundo termino en el lado derecho de (3.2.14) satisface C ku ? T m uk I (u ? T m u)k m k @P L ( B ( ) \ ) L (BR (j )\ ) CR jujH m j R @y R k 2 2 +1 (BR (j )\ ) En virtud de (3.2.4) el primer termino en el lado derecho de (3.2.14) satisface @u ? @T m u k m k @y @yk L (BR(j )\ ) CR jujH m k 2 +1 (BR(j )\ ) la cual junto a las estimaciones anteriores provee el resultado deseado Observacion 3.2.1 Notemos que, como esta contenido en [1jl BR (j ) \ por el resultado obtenido en el Teorema 3.2.1 tenemos que P l ku ? u^kL ( ) j=1 ku ? u^kL (BR(j)\ ) CRm+1 Plj=1 jujH m (B R(j )\ ). Dado que, por hipotesis, el numeroPde bolas que se solapan esta acotado independientemente de R, existe una constante C tal que lj =1 jujH m (B R(j )\ ) C jujH m ( ) y por ende, existe una constante C , independiente de R, tal que ku ? u^kL ( ) CRm+1jujH m ( ). Analogamente a partir del resultado obtenido en el 3.2.2 tenemos que kr(u ? u^)kL ( ) CRm jujH m ( ) . 2 2 +1 +1 2 2 2 +1 +1 2 +1 Observacion 3.2.2 Si bien hemos obtenido estimaciones de error solo para la funcion y sus primeras derivadas, haciendo uso de los mismos argumentos y generalizando las hipotesis sobre la funcion de peso y las bases de Lagrange (por ejemplo que las k-esimas derivadas tanto de la funcion de peso como de las funciones base de Lagrange puedan acotarse por RCk , con C independiente de R) podran obtenerse estimaciones de error para derivadas de mayor orden. 38 Captulo 3 3.3 Cotas de las bases de Lagrange En los resultados obtenidos en las secciones 3.1 y 3.2 hemos supuesto que para cada x 2 las bases de Lagrange asociadas a los s puntos, s = dimPm, pertenecientes a XR \ B R (x), que existen en virtud de la propiedad 1), satisfacen las propiedades 4) y 5). En esta seccion vamos a demostrar para N = 2 y m = 1; 2 que, para una distribucion de puntos bastante general, las correspondientes bases de Lagrange satisfacen dichas propiedades. Para llevar adelante nuestro analisis introducimos la siguiente denicion: 2 Denicion 3.3.1 Para cualquier x 2 , sea T el triangulo de vertices a1; a2; a3 2 B R (x) y sea el diametro de la mayor bola contenida en T . Vamos a decir que T satisface la condicion de regularidad, i.e, T satisface la condicion CR, con constante > 0 (independiente de R y ), si R 2 El siguiente resultado, (ver por ejemplo [7]), nos proporciona una herramienta fundamental para llevar a cabo nuestras acotaciones. Para simplicar notacion, nos referiremos al hiperplano fy : L(y) = 0g, con L funcion lineal, simplemente como hiperplano L. Lema 3.3.1 Sea P un polinomio en N variables de grado d 1 que se anula en un hiperplano L. Luego podemos escribir P = LQ, donde Q es un polinomio de grado d ? 1. Dem. LLamemos y^ = (y1; ; yN ?1), podemos mediante un cambio afn de coordenadas suponer que L(^y; yN ) = yN y el hiperplano L(^y ; yN ) = 0 es el eje y^. En consecuencia P (^y ; 0) = 0. Como P tiene grado d podemos escribir P (^y ; yN ) = d X X j =0 j^ijd?j c^ij y^^i yNj P donde ^i = (^i1; ; ^iN ?1), j^ij = ^i1 + +^iN ?1 , ik 2 IN0 . Como por hipotesis P (^y ; 0) = j^ijd c^ij y^^i 0 resulta c^i0 = 0 para j^ij d y en consecuencia P (^y; yN ) = = d X X c^ij y^^i yNj = yN j =1 j^ijd?j yN Q = LQ dX ?1 X j =1 j^ijd?j c^ij y^^i yNj?1 donde Q es un polinomio de grado d ? 1. Vamos a considerar en primer lugar el caso m = 1. Lema 3.3.2 Sea m = 1. Dado x 2 , si existen puntos a1; a2; a3 en XR \ B R (x) tal que el 2 triangulo T de vertices a1 ; a2; a3 verica la condicion CR entonces, existe una constante C = C ( ) Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional 39 tal que las bases de Lagrange li , 1 i 3, asociadas con esos puntos satisfacen, 8y 2 B2R (x) \ jli(y)j C @l j @yi(y) j CR 1 j 2 j (3.3.15) (3.3.16) Dem. Sea T el triangulo de vertices a1; a2; a3 y sea el diametro de la mayor bola contenida en T . Las bases de Lagrange pueden construirse facilmente haciendo uso del Lema (3.3.1) , pues, dado que li (aj ) = ij , para 1 i; j 3 podemos escribir li = i Li donde Li es la recta a la que pertenecen los aj con j = 6 i, i.e, la recta a la que pertence el lado del triangulo opuesto a ai, y la constante i se determina usando que li(ai ) = 1. Por un simple calculo y usando que T satisface la condicion CR puede verse que 2 jli(y)j C R2 C () j @l@yi(y) j C R2 CR() 1 j 2 : j Consideremos ahora el caso m = 2. Vamos a obtener cotas para las bases de Lagrange y sus primeras derivadas, como las que proponen las propiedades 4) y 5), para una distribucion de puntos bastante general como se muestra en la Figura 1. s a6 a5 s s a4 a3 s s a1 s a2 Figura 1 A n de hacer nuestro analisis mas sencillo vamos a considerar, en primer termino, dos casos particulares de la situacion mostrada en la Figura 1. 40 Captulo 3 Lema 3.3.3 Sea m = 2. Dado x 2 supongamos que existen puntos aj ; 1 j 6 en XR \ B R (x) 2 de tal forma que alguna de las dos siguientes situaciones se tiene i) aj ; 1 j 6 distribuidos como se muestra en la Figura 2 y tales que los triangulos de vertices fa1; a2; a6g, fa2; a3; a4g y fa4; a5; a6g satisfacen la condicion CR ii) aj ; 1 j 6 se distribuyen como indica la Figura 3 y los triangulos de vertices fa1 ; a2; a6g, fa2; a3; a4g, fa4; a5; a6g y fa1; a2; a5g satisfacen la condicion CR. Entonces, existe una constante C = C ( ) tal que 8y 2 B2R (x) \ las bases de Lagrange li asociadas a los puntos ai , 1 i 6, satisfacen jli(y)j C @l j i (y)j C 1 j 2 @yj R Dem. Sea x 2 , consideremos el triangulo T de vertices a1; a3; a5 contenido en la bola B R (x). Para simplicar notacion, a la recta fy : Lij (y ) = 0g a la cual pertenecen ai y aj la notaremos 2 simplemente Lij . Supongamos primero que los puntos estan en la situacion mencionada en i). Sean a2 ; a4; a6 los puntos que, respectivamente, estan en L13; L35; L15 como se muestra en la Figura 2. a5 s L15 a6 L35 p c c ` a4 a3 s pc a1 s a2 L13 Figura 2 Vamos a demostrar el resultado solo para la base de Lagrange l1 2 P2 la cual satisface l1 (aj ) = 1j , 1 j 6, ya que, el mismo argumento puede ser usado para obtener las cotas para las otras bases. A partir de que l1 2 P2 y se anula en a3 ; a4; a5 2 L35 se sigue que , l1 = 0 en L35 y usando el Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional 41 Lema 3.3.1 podemos escribir l1 = L35q1 donde q1 2 P1 . Pero l1 se anula tambien en a2 y a6 los cuales no pertenecen a L35 , por lo tanto, q1 = 0 en L26 y en consecuencia , usando nuevamente el Lema (3.3.1), l1 = cL35L26 y como l1(a1 ) = 1 la constante c queda univocamente determinada. Mediante un simple calculo podemos ver entonces que, 8y 2 B2R (x) \ 4 jl1(y)j c (area de T R)(area de T ) 135 126 R3 @l1 (y )j c j @y (area de T135) (area de T126) j = 1; 2 j (3.3.17) donde Tijk denota el triangulo de vertices fai ; aj ; ak g. LLamemos ijk al diametro de la mayor bola contenida en Tijk . Notemos que 135 234 y como el triangulo T234 y el triangulo T126 satisfacen, por hipotesis, la condicion CR, usando esto en (3.3.17) obtenemos las estimaciones deseadas. Consideremos ahora la situacion descripta en el caso ii). Notemos que usando el mismo argumento que utilizamos antes para el caso i), podemos construir lj 2 P2 tales que lj (ai ) = ij para i; j = 1; 2; 4; 5; 6 , i.e, usando el Lema 3.3.1 podemos escribir l1 = c1L35 L26 , l2 = c2L35L16 , l4 = c4L13 L56 , l5 = c5 L13L46 y l6 = c6L13 L35 donde las constantes cj son determinadas a partir de que lj (aj ) = 1. Por lo tanto, por el mismo argumento usado antes, si los triangulos de vertices fa1; a2; a5g, fa1; a2; a6g, fa4; a5; a6g y fa2; a3; a4g, satisfacen la condicion CR mediante un simple @lj j C , para k = 1; 2 y j = 1; 2; 4; 5; 6. calculo se puede ver que jlj j C y j @y R k No obstante el argumento usado hasta ahora falla cuando deseamos construir la base l3 ya que, no podemos trazar una lnea que incluya a 3 puntos, de los 6 dados, que sean diferentes de a3 . Sin embargo, podemos facilmente construir b3 2 P1 independiente de fl1; l2; l4; l5; l6g de forma @b j C , tal que b3(a3) = 1 y b3 jL = 0 y mediante un simple calculo concluir que jb3j C y j @y R k para k = 1; 2. 3 15 42 Captulo 3 s a6 a5 s s a4 a3 s s a1 s a2 Figura 3 P Notemos que, la base de Lagrange l3 esta dada por l3 (y ) = b3 (y ) ? j =1;;6;j 6=3 b3(aj )lj (y ), y en consecuencia se deduce inmediatamente que l3 tambien satisface las cotas deseadas . Finalmente, vamos a demostrar que las bases de Lagrange asociadas a la distribucion de puntos para el caso mas general, como se muestra en la Figura 1, satisfacen las propiedades 4) y 5) Lema 3.3.4 Sea x 2 , m = 2 y supongamos que existen puntos aj ; 1 j 6 en B R (x) como se muestra en la Figura 1 tales que los triangulos de vertices fa1 ; a2; a5g, fa4 ; a5; a6g, fa1 ; a2; a6g fa2; a3; a4g y fa2; a3; a5g satisfacen la condicion CR luego, existe una constante C = C () tal que 8y 2 B2R(x) \ las bases de Lagrange li, 1 i 6 asociadas a los puntos aj ; 1 j 6 satisfacen 2 jli(y)j C @li (y)j C 1 j 2 j @y R j (3.3.18) Dem. Por el mismo argumento utilizado en el Lema anterior las bases de Lagrange lj 2 P2, 4 j 6 pueden escribirse como l4 = c4L13 L56, l5 = c5L13 L46, y l6 = c6 L13L45, donde las constantes cj se determinan usando que lj (aj ) = 1 , 4 j 6. Usando nuevamente el resultado del Lema 3.3.1 podemos construir b1; b2 2 P1 de la forma b1 = c1 L35 y b2 = c2 L15 donde las constantes cj se determinan inponiendoles que bj (aj ) = 1 , 1 j 2. Con esta construccion resulta que fb1; b2; l4; l5; l6g son independientes y satisfacen la acotaciones deseadas si los triangulos de vertices fa1 ; a2; a5g, fa4; a5; a6g, fa1 ; a2; a6g y fa2 ; a3; a4g satisfacen la condicion CR. Necesitamos ahora construir b3 de forma tal que resulte independiente de las otras, i.e, quere- Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional 43 mos ver que existe b3 2 P2 con b3(a3) = 1 tal que la siguiente matriz resulta nosingular. 0 1 0 2 B b1 (a ) 1 B B 0 b2(a3 ) B B B b1(a4 ) b2(a4) B @ 0 0 b3(a1 ) 0 0 0 1 b3(a2 ) 0 0 0 C C 1 0 0 0 b3(a4) 1 0 0 b3(a5) 0 1 0 6 6 b1(a ) b2(a ) b3(a6 ) 0 0 1 Observemos que esta matriz resultara nosingular si la submatriz 0 1 1 0 b3(a1 ) B @ b1(a2) 1 b3(a2) CA 0 b2 (a3) 1 CC CC CA es nosingular. Dado T el triangulo de vertices fa1 ; a3; a5g consideramos F la transformacion afn que manda T^ en T , i.e, F (T^) = T (y1; y2) = F (^y1 ; y^2), donde T^ es el triangulo de referencia que se muestra en la Figura 4. a^3 = (0; 1) c a^2 c c c a^1 = (0; 0) a^4 c a^6 c a^5 = (1; 0) Figura 4 A n de facilitar los calculos para obtener b3 trabajaremos en el triangulo de referencia T^. En este caso las correspondientes bases ^b1 y ^b2 estan dadas por ^b1(^y1 ; y^2) = 1 ? y^1 ? y^2 y ^b2(^y1 ; y^2) = ay^^ , con a^2 = (0; ^a22) (observemos que si los triangulos de vertices fa^1 ; a^2; a^5g y fa^2; a^3; a^5g satisfacen la condicion CR, lo cual se sigue del hecho de que los triangulos de vertices fa1; a2; a5g y fa2 ; a3; a5g la satisfacen, a^22 es diferente de 0 y 1). Vamos a tomar ^b3 2 P2 tal que ^b3jL = 0, ^b3(^a3 ) = 1 2 2 2 15 44 Captulo 3 independiente de las otras. Un simple calculo muestra que podemos seleccionar ^b3(^y1 ; y^2) = y^22 y en consecuencia b3 = ^b3 F ?1 , i.e, b3(y1 ; y2) = ^b3(^y1 ; y^2). A partir de que el triangulo de vertices fa1 ; a2; a5g satisface la condicion de regularidad, el triangulo de vertices fa1; a3; a5g tambien la cumple y en consecuencia la base b3 esta acotada independientemente de R. Finalmente, podemos obtener las bases de Lagrange l1; l2; l3 simplemente como una combinacion lineal de b1 ; b2; b3; l4; l6 donde los coecientes de la combinacion resultan acotados por una constante que depende de y la demostracion concluye . Observacion 3.3.1 Es cierto que la hipotesis de tener tres puntos alineados, como supone la distribucion de puntos que consideramos en la Figura 1, puede parecer bastante restrictiva. Sin embargo, es importante notar que como las bases de Lagrange son continuas respecto de los puntos de interpolacion las cotas obtenidas deberan mantenerse si tenemos puntos que tengan una distribucion sucientemente proxima a la que se muestra en la Figura 1. Cap tulo 4 El metodo de cuadrados mnimos continuos con peso variable En este Captulo presentaremos un metodo de aproximacion, el cual hemos dado en llamar metodo de cuadrados mnimos continuos con peso variable (el que denotaremos de ahora en mas CMLS), para el cual obtendremos estimaciones, tanto en L1 como en L2 , del error cometido al aproximar la funcion y sus derivadas. Explicaremos, ademas como el metodo puede ser aprovechado para resolver ecuaciones diferenciales. 4.1 Descripcion del metodo El metodo CMLS puede describirse de la siguiente manera: Sea IRN , un conjunto abierto, acotado y con borde Lipschitz y sea u la funcion que deseamos aproximar. Denotamos, como antes, Pm el conjunto de todos los polinomios en N variables de grado menor o igual a m y fp1; ; psg una base de Pm con s = dim Pm. Dado R > 0, consideramos P R una funcion con soporte en BR (0) tal que 0 R 1. Para cada x 2 sea P c (x; y ) = sj=1 cj (x)pj (y ) donde los coecientes cj , 1 j s son elegidos de forma tal que minimizan Jxc () = Z R (x ? z )(u(z ) ? P c (x; z ))2dz u^c (x) = P c (x; x) = Psj=1 cj (x)pj (x). Denimos el aproximante a u como Vamos a enunciar las propiedades que supondremos sobre la funcion de peso R : 1. 9c0 > 0 tal que R(z ) c0 , 8z 2 B R (0). 2 2. 2 C 1(BR (0)) \ W 1;1 (IRN ), y krRkL1 (IRN ) cR . 1 donde c0 y c1 son constantes independientes de R. 45 (4.1.1) 46 Captulo 4 En primer lugar notemos que, si R satisface la propiedad 1) podemos denir para cada x 2 el producto interno Z < f; g >x= R (x ? z)f (z)g(z )dz (4.1.2) con la correspondiente norma asociada kf k2x =< f; f >x . Luego, a partir de la teora clasica de cuadrados mnimos, existe un unico P c (x; ) que minimiza ku ? P kx sobre todos los P 2 Pm ([12],[18],[20]) y por ende u^c esta bien denido. Teorema 4.1.1 Si R satisface la propiedad 1) cualquiera sea x 2 existe un unico P c (x; ) 2 Pm para el cual ku ? P c (x; :)kx ku ? P kx cualquiera sea P 2 Pm . Observacion 4.1.1 Observemos que, para cada x 2 si derivamos Jxc () respecto de j obtenemos Z Z R (x ? y )P (x; y )pj (y )dy = R (x ? y )u(y )pj (y )dy 1 j s P s c c Como P (x; y ) = (x)p (y ) reemplazando en la expresion anterior arrivamos al siguiente sistema i=1 i s X i=1 ci (x) Z i R (x ? y )pi(y )pj (y )dy = Z R(x ? y )u(y )pj (y )dy 1 j s i.e, c (x) = (c1(x); ; cs (x)) es la solucion del sistema A(x)c (x) = b(x) con (A(x))ij = Z R (x ? y )pi (y )pj (y )dy bj (x) = Z R (x ? y )u(y )pj (y )dy 1 i; j s Observacion 4.1.2 Para analizar la regularidad de u^c, basta con ver cual es la regularidad de los coecientes cj , 1 j s. Dado que c es la solucion del sistema mencionado en la Observacion anterior, es claro que si R 2 C l entonces c tambien, y por ende u^c sera tan regular como lo sea R . 4.2 Estimaciones de error Nuestro proposito es establecer como aproxima u^c y sus derivadas a u y las derivadas de u. En principio vamos a suponer que la funcion a aproximar u esta en W m+1;1 ( ) (depues consideraremos el caso en que u sea menos regular, digamos u 2 H m+1 ( )). Llamamos f g a la convolucion de f con g , i.e, f g(x) = Z IRN f (z )g(x ? z )dz Por C01 denotaremos las funciones en C 1 con soporte compacto. Para llevar a cabo nuestro analisis de error vamos a hacer uso del siguiente resultado de Calderon y Zygmund [9], el cual nos proporciona una de las herramientas fundamentales para llevar adelante nuestras estimaciones. Por completitud incluiremos aqu la demostracion. El metodo de cuadrados mnimos continuos con peso variable 47 Teorema 4.2.1 Existe una funcion ' 2 C01(B1(0)), i.e, ' innitamente diferenciable con soporte en B1 (0), tal que cualquiera sea P 2 Pm Z 1 x?y '( )P (y )dy = P (x) i.e, P = P ' donde ' (z ) = IRN N 1 z N '( ) Dem. Consideremos la clase de todas las funciones innitamente diferenciables '(x) con soporte en jxj 1, i.e, C01 (B1(0)), y sea V el espacio vectorial de los puntos , = (1; ; N ), i 2 IN0 , 0 jj m. Denimos la aplicacion lineal T : C01 (B1 (0)) ?! V como T (') = = Z IRN '(x)xdx donde x = x1 xNN . Si la aplicacion T no es suryectiva, i.e , la imagen de T no es todo el espacio V , entonces debe existir algun elemento en el ortogonal a la imagen de T , i.e , existen numeros , 0 jj m, no todos nulos, tales que 1 X = 0 = Z '(x) N IR X xdx = 0 P cualquiera sea '. En particular esto se tiene para cualquier ' de la forma ' = x con funcion innitamente diferenciable con soporte en jxj 1 positiva para jxj < 1. Entonces Z IRN P X (x)j xj2 dx = 0 lo que implica que x = 0 para cualquier x con jxj < 1 y en consecuencia, = 0, 0 jj m, arrivando as a una contradiccion. Luego, la imagen de T es V , i.e, dado cualquier elemento de V , existe una funcion ' 2 C01 (B1 (0)) tal que = T ('), en particular existe ' tal que Z IR '(x)dx = 1; N Z IRN '(x)xdx = 0; 0 < jj m Dado cualquier polinomio Q de grado m, es claro que si elegimos ' en esas condiciones reR sulta que IRN '(z )Q(z ) = Q(0) y en consecuencia haciendo el cambio de variables z = x? y y reemplazando Q(z ) por Q(z ) = P (x ? z ) tenemos que Z 1 x?y '( )P (y )dy = P (x) IRN N y la demostracion concluye . Observacion 4.2.1 Notemos que el resultado anterior tambien se tiene si consideramos las fun- ciones ' innitamente diferenciables pero con soporte en la interseccion de la bola de radio 1 con un cono abierto con vertice en el origen. 48 Captulo 4 Teorema 4.2.2 Sea u 2 W m+1;1 ( ) y para cada x 2 consideremos P c (x; ) como antes, si satisface las propiedades 1) y 2) entonces existe una constante C independiente de R tal que 8y 2 B R (x) \ 4 jDy (u(y) ? P c(x; y))j CRm+1?jjkDm+1ukL1(BR(x)\ ) CRm+1?jjkDm+1ukL1( ) 0 jj k y en consecuencia 8x 2 ju(x) ? u^c(x)j CRm+1kDm+1ukL1 (BR(x)\ ) CRm+1kDm+1ukL1( ) Dem. Sea x 2 , como tiene borde Lipschitz para R chico podemos suponer que, cualquiera sea y 2 B R (x) \ existe un cono abierto con vertice en y y de amplitud , independiente de y , tal que la interseccion del cono con B R (y ), la cual llamaremos C R (y ), esta contenida en (ver, por ejemplo, [17]). Dado que u 2 W m+1;1 ( ) , para cada x 2 y cualquiera sea y 2 B R (x) \ podemos construir T (x; y ) el polinomio de Taylor, asociado a u, centrado en x de grado m, i.e, X 1 T (x; y ) = ! D u(x)(y ? x) 4 4 4 4 j jm En vista del Teorema 4.2.1 y la observacion 4.2.1, existe una funcion innitamente diferenciable R con soporte en C R (0) denida por R(w) = ( R1 )N ( wR ) con 2 C01 (C1(0)) tal que, cualquiera R R sea Q 2 Pm , Q = Q R, i.e, Q(y ) = IRN Q(z ) R(y ? z )dz = C R (y) Q(z ) R(y ? z )dz . Sea Q(y ) = P c (x; y ) ? T (x; y ), como Q es un polinomio de grado m. Luego 4 4 4 4 jQ(y)j Z C R (y) jP c(x; z) ? u(z)jj R(y ? z)jdz + 4 Z C R (y) ju(z) ? T (x; z)jj R(y ? z)jdz (4.2.3) 4 Consideremos ahora el primer termino en el lado derecho de (4.2.3) aplicando la desigualdad de Schwartz tenemos que Z C R (y) Z jP c(x; z) ? u(z)jj R(y ? z)jdz ( C R (y) 4 Como Z jP c(x; z) ? u(z)j2dz) ( 1 2 4 C R (y) j R(y ? z)j2dz) 4 (4.2.4) 2 C01(C1(0)) existe una constante C tal que Z C R (y) j R (y ? z )j2dz 4 C Z 1 R2N C R (y) dz = C RN 4 Usando esto en (4.2.4) y el hecho de que C R (y ) B R (y ) \ B R (x) \ tenemos que Z C R4 (y) 4 4 2 Z jP c (x; z) ? u(z)jj R(y ? z)jdz CR? N ( 2 B R (x)\ 2 jP c (x; z) ? u(z)j2dz) 1 2 1 2 El metodo de cuadrados mnimos continuos con peso variable 49 A partir de que R satisface la propiedad 1), i.e, existe una constante c0 > 0, independiente de R, tal que R (z) c0 para z 2 B R (0), se sigue que Z ( Z jP c (x; z) ? u(z)j2dz) C ( jP c (x; z) ? u(z)j2R(x ? z)dz) B R (x)\ B R (x)\ Z C( jP c (x; z) ? u(z)j2R(x ? z)dz) 2 1 2 2 1 2 2 Como P c (x; ) es el polinomio en Pm que Z BR (x)\ BR(x)\ minimiza Jxc () tenemos que cualquiera Z jP c (x; z) ? u(z)j2R(x ? z)dz = Z Z = 1 2 sea P 2 Pm . jP c(x; z) ? u(z)j2R(x ? z)dz jP (z) ? u(z)j2R(x ? z)dz BR(x)\ jP (z) ? u(z)j2R(x ? z)dz En particular se tiene para P (z ) = T (x; z ) y entonces resulta que Z ( BR(x)\ Z jP c (x; z) ? u(z)j2R(x ? z)dz) ( 1 2 BR(x)\ Como por hipotesis 0 R 1 se sigue que Z ( BR (x)\ Z jT (x; z) ? u(z)j2R(x ? z)dz) 21 ( BR (x)\ Denimos la funcion NR u(x) como Z 1 1 N u(x) = ( R Rm+1 jT (x; z) ? u(z)j2R(x ? z)dz) jT (x; z) ? u(z)j2dz) 1 2 1 2 RN BR (x)\ jT (x; z) ? u(z )j 2dz ) 21 En consecuencia, para el primer termino del lado derecho de (4.2.3), existe una constante C , independiente de R, tal que Z C R (y) jP c(x; z) ? u(z)jj R(y ? z)jdz CRm+1NRu(x) (4.2.5) 4 Consideremos ahora el segundo termino del lado derecho de (4.2.3). Usando la desigualdad de Schwartz y el hecho de que esta acotada tenemos que Z Z C R (y) 4 ju(z) ? T (x; z)jj R(y ? z)jdz ( C R (y) ju(z) ? T (x; z)j2dz) 21 ( Z 4 CR? N2 ( CR? N2 ( C R (y) j R(y ? z)j2dz) 4 C R (y) Z Z ju(z) ? T (x; z)j2dz) 12 4 BR (x)\ ju(z) ? T (x; z)j2dz) 1 2 1 2 50 Captulo 4 y por ende Z C R (y) ju(z) ? T (x; z)jj R(y ? z)jdz CRm+1NRu(x) (4.2.6) 4 Usando (4.2.5) y (4.2.6) en (4.2.3) resulta que jP c(x; y) ? T (x; y)j CRm+1NRu(x) (4.2.7) y en consecuencia para cualquier y 2 B R (x) \ existe una constante C , independiente de R, tal que 4 jP c (x; y) ? u(y)j CRm+1NRu(x) + jT (x; y) ? u(y)j (4.2.8) En particular tomando y = x concluimos que jP c(x; x) ? u(x)j = jP c(x; x) ? T (x; x)j CRm+1NRu(x) 8x 2 (4.2.9) Notemos que Dy Q = Dy (Q R) = Q Dy R , i.e, Z Z ? z )dz ? N ?j j Dy Q(y) = N Q(z )Dy R(y ? z)dz = R Q(z )(D )( y R IR C R (y) Z z )dz = R?N ?j j (P c (x; z ) ? T (x; z ))(D )( y ? (4.2.10) R C R (y ) 4 4 En vista de que 2 C01 (C1 (0)) y (4.2.7) existe una constante C tal que, cualquiera sea , 0 j j k se tiene que jDy (u(y) ? P c (x; y))j jDy (u(y) ? T (x; y))j + jDy (T (x; y) ? P c (x; y))j jDy (u(y) ? T (x; y))j + CRm+1?jjNRu(x) (4.2.11) Como u 2 W m+1;1 ( ) y T es el polinomio de Taylor de grado menor o igual que m, cualquiera sea y 2 B R (x) \ (podemos suponer que el segmento que une x con y esta contenido en B R (x) \ para R chico) se tiene que NRu(x) C kDm+1ukL1(BR(x)\ ) y dado que para cualquier funcion u sabemos que la derivada del polinomio de Taylor de grado m de u es el polinomio de Taylor de grado m ? 1 de la derivada de u, se tiene ademas que jDy (u(y) ? T (x; y))j CRm+1?jjkDm+1ukL1 (B R (x)\ ) 4 4 4 Usando esto en (4.2.9) y (4.2.11) concluye la demostracion. Observacion 4.2.2 En el teorema anterior hemos establecido que dado x 2 para cualquier y 2 B R (x) \ se tiene que 4 jDy (u(y) ? P c (x; y))j CRm+1?jjkDm+1ukL1( ) 0 jj k El metodo de cuadrados mnimos continuos con peso variable P 51 P Como P c (x; y ) = sj=1 cj (x)pj (y ) entonces Dy P c (x; y ) = sj=1 cj (x)D pj (y ), dado que la estimacion se tiene para cualquier y 2 B R (x) \ en particular se tiene para y = x y en consecuencia 4 jD u(x) ? s X j =1 cj (x)D pj (x)j CRm+1?jj kDm+1ukL1 (BR (x)\ ) Tenemos hasta ahora, estimaciones del error cometido al aproximar u por u^c y D u por Ps c Dentonces, pj en lugar de aproximarlas por D u^c . j =1 j Antes de proceder con las estimaciones de error para las derivadas hagamos la siguiente observacion Observacion 4.2.3 Supongamos que u esta denida en todo IRN (recordemos que si u 2 W m+1;1 ( ) entonces, u puede extenderse a IRN con la misma regularidad en vista de que tiene borde LipsP s chitz) y sea, para cada x 2 , P (u; x; y ) = (x)p (y ) donde los coecientes , 1 j s son elegidos de forma tal que minimizan Jx () = Z IRN j =1 j j j R (x ? z )(u(z ) ? P (u; x; z ))2dz P con R como antes. Denimos el aproximante a u como P (u; x; x) = sj=1 j (x)pj (x) entonces, en este caso se tiene que, @ (P (u; x; x)) = P ( @u ; x; x) 1 j s @xj @xj (4.2.12) i.e, la derivada del aproximante es el aproximante de la derivada. Dado que Z (P (u; x; y ) ? u(y ))q (y )R(x ? y )dy = 0 N IR cualquiera sea q 2 Pm , (4.2.12) se demuestra, basicamente, usando esta relacion de ortogonalidad en xh = (x1; ; xj +h; ; xN ) y haciendo el cambio de variables y ! yh = (y1; ; yj +h; ; yN ) lo que conduce a concluir que Z IRN (P (u; xh; yh ) ? u(yh ))q (y )R(x ? y )dy = 0 cualquiera sea q 2 Pm y en consecuencia P ( u(xh ) h? u(x) ; x; x) = P (u; xh ; xh)h? P (u; x; x) y la demostracion concluye tomando lmite para h ! 0. R R Este argumento falla en nuestro caso pues al considerar en lugar de IRN al hacer el cambio de variables podra modicarse el conjunto de integracion a un conjunto no contenido en . El resultado que nos proporciona el siguiente Lema nos permitira establecer el orden con que aproximan las primeras derivadas de u^c a las primeras derivadas de u. 52 Captulo 4 Lema 4.2.1 Sea u 2 W m+1;1( ) y para cada x 2 consideremos P c (x; ) como antes, si R satisface las propiedades 1) y 2) entonces existe una constante C independiente de R tal que 8y 2 B R (x) \ c j @P@x(x; y) j CRmkDm+1ukL1(B R(x)\ ); 1 j N 4 j 2 Dem. Vamos a hacer la demostracion para el caso j = 1, dado que para los otros valores de j es analoga. Sea x 2 tomemos h > 0 sucientemente peque~no de manera que (x1 + h; : : :; xN ) 2 para simplicar notacion llamamos xh a (x1 + h; : : :; xN ). Por el mismo argumento usado en la demostracion del Teorema 4.2.2 existe R 2 C01 con soporte en C R (0) tal que cualquiera sea Q 2 Pm , Q = Q R . Para cada y 2 B R (x) \ , denimos Q(y) = P c ((x1 + h; : : :; xN ); y ) ? P c (x; y ) = P c (xh ; y ) ? P c (x; y). Como Q es un polinomio en y de grado menor o igual que m se tiene que Z Q(y ) = Q(z ) R(y ? z)dz 4 4 C R (y) 4 con C R (y ) . Luego usando la desigualdad de Schawrtz y el hecho de que R (w) = ( R1)N ( wR ) con acotada, independientemente de R, tenemos que 4 jQ(y)j 4 Z C R (y) 4 jQ(z)jj R(y ? z)jdz Z Z CN ( jQ(z)j2dz) CN ( jQ(z)j2dz) C ( y ) B ( x ) \ R R R R 4 1 2 2 2 4 1 2 2 Usando esta acotacion y el hecho de que R satisface la propiedad 1) tenemos que jQ(y)j2 Z Z C Z C C 2 2 2 RN B R (x)\ jQ(z)j dz RN B R (x)\ jQ(z )j R (x ? z )dz RN jQ(z)j R (x ? z)dz 2 2 Notemos que Z Z jQ(z)j2R(x ? z)dz = (P c (xh; z) ? u(z))(P c(xh; z) ? P c(x; z))R(x ? z)dz + Z (u(z ) ? P c (x; z ))(P c(xh ; z ) ? P c (x; z ))R(x ? z )dz En vista de que P c (x; ) es la proyeccion ortogonal de u sobre el espacio Pm respecto del producto < ; >x , sabemos que, < u ? P c (x; ); P >x = 0 cualquiera sea P 2 Pm en particular se tiene para P = Q y en consecuencia Z Z 2 jQ(z)j R(x ? z)dz = (P c (xh; z) ? u(z))Q(z)R(x ? z)dz Para h sucientemente chico existe tal que R (x ? z ) = R (xh ? z ) ? h @@xR ( ? z ) y usando que < u ? P c(xh; ); P >xh = 0 cualquiera sea P 2 Pm tenemos que Z Z c (P (x ; z ) ? u(z ))Q(z ) (x ? z )dz = h (u(z ) ? P c (x ; z ))Q(z ) @ R ( ? z )dz 1 h R h @x1 h ju(z) ? P c (xh; z)jjQ(z)jj @@xR ( ? z)jdz Z 1 El metodo de cuadrados mnimos continuos con peso variable 53 Sabemos que @@xR tiene soporte contenido en BR (0) luego la integral se reduce a aquellos puntos z 2 BR ( ) \ BR+h (xh ) \ , como ademas R satisface la propiedad 2) tenemos que 1 Z (P c (xh ; z ) ? u(z ))Q(z )R(x ? z )dz C Rh Z BR+h (xh)\ ju(z) ? P c (xh; z)jjQ(z)jdz En (4.2.7) demostramos que dado xh 2 , jT (xh; z ) ? P c (xh ; z )j CRm+1 NR u(xh ) cualquiera sea z 2 B R (xh ) \ . En vista de que T (xh ; z ) ? P c (xh ; z ) es un polinomio en z , la estimacion se tiene tambien para z 2 B R(xh ) \ (ver Observacion 4.2.4) y en consecuencia 4 3 2 ju(z) ? P c (xh; z)j ju(z) ? T (xh; z)j + CRm+1NRu(xh) cualquiera sea z 2 B R (xh ) \ . Como nos interesa estimar para h chico podemos suponer que BR+h (xh ) \ B2R (x) \ luego Z Z c m +1 ju(z) ? P (xh; z)jjQ(z)jdz CR NRu(xh) jQ(z)jdz BR h (xh ) B R (x)\ Z + ju(z) ? T (xh; z)jjQ(z)jdz BR h (xh ) Z CRm+1NRu(xh) jQ(z)jdz B ( x ) \ R Z N ju(z) ? T (xh; z)j2dz) kQkL1(B R(x)\ + CR ( BR h (xh) CRm+1+N N Ru(xh)kQkL1(B R(x)\ ) 3 2 + 2 + 2 1 2 2 + 3 2 2 2 Usando nuevamente que Q es un polinomio, existe una constante C que dependera solo de N tal que kQkL1(B R (x)\ ) C kQkL1 (B R (x)\ ) (ver nuevamente Observacion 4.2.4) y por lo tanto 2 4 jQ(y)j2 CRmhN Ru(xh)kQkL1(B R (x)\ ) cualquiera sea y 2 B R (x) \ y en consecuencia 3 2 4 4 kQkL1(B R (x)\ ) CRmhN Ru(xh) 3 2 4 y por ende jQ(y)j CRmN u(x ) (4.2.13) R h h Usando que N R u(xh ) kDm+1 ukL1 (B R (xh )\ ) kDm+1 ukL1 (B R (x)\ ), la demostracion concluye tomando h ! 0. 3 2 3 2 3 2 2 Observacion 4.2.4 Dado x 2 y Q un polinomio de grado menor o igual que m para el cual se tiene que existe E = E (R) tal que cualquiera sea y 2 B R (x) \ , 4 jQ(y)j E (R) 54 Captulo 4 Luego existe una constante , independiente de R y de Q, tal que cualquiera sea y 2 B R (x) \ 3 2 jQ(y)j E (R) Esto puede verse simplemente considerando s ( s = dimPm) puntos en B R (x) \ , llamemoslos 1 ; ; s , seleccionados tal que las bases de Lagrange (lj )1j s , asociadas a esos puntos, estan acotadas en B R (x) \ por una constante cL independiente de R. Luego 4 3 2 jQ(y)j s X j =1 jQ(j )jlj (y)j scLE (R) E (R) Corolario 4.2.1 Sea u 2 W m+1;1( ) y sea u^c(x) = P c (x; x) la aproximacion a u dada por CMLS, si satisface las propiedades 1) y 2) entonces existe una constante C independiente de R tal que para cualquier x 2 jr(u(x) ? u^c (x))j CRmkDm+1ukL1(B R(x)\ ) 2 Dem. Dado que @ P c (x; x) = f @P c (x; y) + @P c (x; y) g @xj @xj @yj y @P c(x;y) @xj @P c (x;y) j, @yj x (4.2.14) = es suciente estimar j @u@y(jy) ? ? 8y 2 BR(x) \ . Luego, el resultado se tiene como una consecuencia del Teorema 4.2.2 y el Lema 4.2.1. El Teorema 4.2.2 junto con el Corolario 4.2.1 proveen estimaciones de error en L1 para la funcion y sus primeras derivadas suponiendo que u 2 W m+1;1 ( ). Sean f1; ; lg puntos en tales que [1j l BR (j ) y la cantidad de bolas que se superponen esta acotada por una constante C independiente de R, nuestro interes es ahora obtener estimaciones en L2 (BR (j ) \ ), 1 j l, del error cometido al aproximar la funcion y sus primeras derivadas, por el aproximante y sus primeras derivadas con menos requerimiento de regularidad de la funcion u, esto es u 2 H m+1( ). Corolario 4.2.2 Sea u 2 H m+1( ) y sea u^c(x) = P c (x; x) la aproximacion a u dada por CMLS, si satisface las propiedades 1) y 2) entonces existe una constante C independiente de R tal que ku ? u^c kL (BR(j )\ ) CRm+1jujH m (B R(j )\ ) kr(u ? u^c)kL (BR(j )\ ) CRmjujH m (B R(j )\ ) 2 +1 2 +1 2 3 Dem. Como u 2 H m+1( ) es claro que en este caso podra no tener sentido denir el polino- mio de Taylor para u como hicimos en la demostracion del Teorema 4.2.2 y el Corolario 4.2.1. Consideremos entonces T un polinonio de grado menor o igual que m el cual satisface ku ? T kH k(B R(j)\ ) CRm+1?k jujH m 3 +1 (B3R(j )\ ) 0km (4.2.15) El metodo de cuadrados mnimos continuos con peso variable 55 Una posible eleccion para T esta dada por, [7], Z 1 T (y) = jB j T (z; y)dz B donde B B3R (j ) \ de forma tal que B3R (j ) \ es estrellado respecto de B (la existencia de una bola B en tales condiciones puede suponerse para R chico dado que tiene borde Lipschitz) y T (z; y) denota el polinomio de Taylor para u de grado menor o igual que m centrado en z evaluado en y (otra posible eleccion de T puede verse en [34]). Siguiendo la demostracion del Teorema 4.2.2 pero usando T en lugar de considerar el polinomio de Taylor, y por ende tomando NRu(x) como Z 1 1 N u(x) = ( jT (z) ? u(z)j2dz) R Rm+1 RN 1 2 BR (x)\ tenemos que cualquiera sea y 2 B R (x) \ 4 ju(y) ? P c (x; y)j CRm+1NRu(x) + jT (y) ? u(y)j y en consecuencia ku ? u^ck2L (BR(j)\ ) CR2(m+1) 2 Z BR (j )\ NRu(x)2 dx + C Z BR (j )\ ju(x) ? T (x)j2dx en vista de que NRu(x) = R?(m+1+ N ) ku ? T kL (BR(x)\ ) R?(m+1+ N ) ku ? T kL (B R(j )\ ) 2 2 2 2 2 cualquiera sea x 2 BR (j ) \ , la primer estimacion se tiene usando (4.2.15). Para obtener la estimacion de error para las derivadas notemos que Z BR (j )\ Z c ( @u (x) ? @P (x; x) )2dx C @xk @xk c ( @u (x) ? @P (x; y ) y=x )2dx @x @y ZBR(j )\ @Pkc(x; y) k + C ( @x y=x )2dx BR (j )\ k (4.2.16) Consideremos, en primer lugar, el segundo termino del lado derecho de (4.2.16). Siguiendo la demostracion del Lema 4.2.1 pero tomando T en lugar de considerar el polinomio de Taylor, si llamamos xh = (x1 ; ; xk + h; ; xN ) y Q(y ) = P c (xh ; y ) ? P c (x; y ) tenemos que Z BR (j )\ ( jQh(x)j )2 dx CR2(m+1) Z N 3 u(xh )2dx BR(j )\ 2 R C ku ? T kL2 (B 3 R(xh )\ ) C ku ? T kL2 (B3R (j )\ ) 2 Tomando limite para h ! 0 y usando (4.2.15) tenemos que Z c (j @P@x(x; y ) jy=x )2dx CR2(m+1)jujH m (B R (j )\ ) BR (j )\ k +1 3 56 Captulo 4 Analicemos ahora el primer termino del lado derecho de (4.2.16). y notemos que Z Z c c ( @u (x)? @P (x; y ) )2dx C ku?T k2 + ( @T (x)? @P (x; y ) BR(j )\ @xk @yk H 1(BR(j )\ ) y=x BR (j )\ @xk @yk y=x (4.2.17) Dado cualquier x 2 BR (j ) \ y cualquiera sea y 2 B R (x) \ por el mismo razonamiento usado en (4.2.11) tenemos que jDy (T (y ) ? P c (x; y ))j CR?j j+m+1 NR u(x). Como el resultado se tiene para cualquier y , en particular se tiene para y = x y resulta que Z Z c (x; y ) @T @P 2 2 m ( (x) ? N u(x)2dx ) dx CR 4 @xk @yk y=x Por lo tanto usando que T satisface (4.2.15) se sigue que @u ? @ u^c k m k @x L (BR(j )\ ) CR jujH m k @xk BR(j )\ 2 BR (j )\ +1 R (B3R(j )\ ) como deseabamos. Observacion 4.2.5 Notemos que, como esta contenido en [1jl BR (j ) \ por el resultado obtenido en el Corolario 4.2.2 y por el mismo argumento que utilizamos en la Observacion 3.2.1 del captulo 3 se tiene que existe una constante C , independiente de R, tal que kD (u ? u^c )kL ( ) CRm+1?jjjujH m 2 +1 ( ) jj 1 . 4.3 La aplicacion de CMLS a la resolucion numerica de ecuaciones diferenciales En la seccion anterior hemos establecido estimaciones del error cometido al aproximar u y sus derivadas por u^c y las derivadas de u^c . Es claro que para obtener la aproximacion mediante CMLS es necesario calcular ciertas integrales que involucran a u. Nuestro proposito es presentar una alternativa de como se podra utilizar el metodo CMLS para resolver numericamente ecuaciones diferenciales. P Para cada x 2 consideremos u^c (x) = P c (x; x) = sk=1 ck (x)pk (x) la aproximacion obtenida usando CMLS. Por lo mencionado en la Observacion 4.1.1 sabemos que c (x) = (c1(x); ; cs(x)) es la solucion del sistema A(x)c (x) = b(x) con (A(x))ij = Z R(x ? y )pi(y )pj (y )dy bj (x) = Z R (x ? y )u(y )pj (y )dy 1 i; j s Es claro entonces que, necesitamos aproximar el valor de bj , para ello consideremos PI (u; x; ) el polinomio de grado m que interpola a u en s puntos fj ; ; js g 2 BR (x) \ luego, bj (x) = Z R (x ? y )u(y )pj (y )dy = Z 1 BR(x)\ R (x ? y )u(y )pj (y )dy )2 dx El metodo de cuadrados mnimos continuos con peso variable podemos aproximarlo por Z ebj (x) = BR (x)Z\ X = ( R(x ? y )PI (u; x; y )pj (y )dy R (x ? y )lk (y )pj (y )dy )u(k) k2fji g BR (x)\ X k aj (x)u(k ) k2fji g = 57 P Si denimos akj (x) = 0 para aquellos k distintos de j1 ; ; js, podemos escribir ebj (x) = nk=1 akj (x)u(k ) y para cada x 2 resolvemos el sistema A(x)e (x) = eb(x). P Construimos entonces una aproximacion a u de la forma ue(x) = Pe c (x; x) = sj=1 ej (x)pj (x). Llamemos pt = (p1(x); ; ps (x)) y ak = (ak1 ; ; aks )t entonces Pe c (x; x) = p(x)tA?1 (x)eb = = n X k=1 n X k=1 p(x)tA?1(x)ak(x)u(k ) k (x)u(k ) (4.3.18) Observemos que para cada x 2 , k (x) = 0 para aquellos k distintos de j1; ; js, y por ende solo el valor de u en j ; ; js tendra inuencia al considerar ue(x). Dada una ecuacion diferencial Lu = f en con condiciones de borde Bu = g en @ con L y B operadores lineales, nos proponemos encontrar una aproximacion a u de la forma uR = P n a con como se denio en (4.3.18). El metodo de colocacion, como ya hemos mencionado j j =1 j j en Captulos anteriores, consiste en imponerle a uR que satisfaga la ecuacion diferencial y las condiciones de borde, en ciertos puntos fz1 ; ; zn g 2 , i.e, 1 LuRjx=zi = f (zi ) zi 2 BuRjx=zi = g(zi) zi 2 @ Arribando de esta manera a un sistema de n ecuaciones con n incognitas a1; ; an . LR a = FR donde LR es una matriz de n n tal que (LR )ij = L(j (x))jx=zi si zi 2 y (LR )ij = B (j (x))jx=zi si zi 2 @ y FR es un vector con componentes f (zi ) o g (zi ) segun zi 2 o zi 2 @ . La convergencia de este tipo de metodos se establece, como hemos mencionado anteriormente, a partir de la estabilidad y la consistencia del esquema resultante. Nuestras estimaciones de error junto con estimaciones del error cometido al aproximar bj por ebj son las que proveeran la consistencia del metodo propuesto, y la estabilidad debera analizarse para cada caso en particular. Cap tulo 5 Exp erimentos Numericos En este Captulo vamos a presentar distintos ejemplos de la aplicacion de MLS y CMLS a la resolucion numerica de ecuaciones diferenciales. Dentro de las caractersticas sobresalientes de este tipo de metodos se destaca la posibilidad de elegir funciones de peso apropiadas para cada problema, es en este aspecto en el que haremos hincapie. Con el proposito de ejemplicar como se puede aprovechar esta ventaja nos ocuparemos de la aplicacion de estos metodos a la resolucion numerica de la ecuacion de conveccion - difusion. 5.1 El caso unidimensional A lo largo de esta seccion consideraremos el problema de resolver numericamente la ecuacion de conveccion-difusion ? u00 + bu0 = 0; en (0; 1) (5.1.1) u(0) = 0 u(1) = 1 para diferentes valores de la constante b > 0. 5.1.1 Aplicaciones del metodo MLS En el Captulo 1 hemos descripto distintas alternativas de aplicacion de MLS a la resolucion numerica de ecuaciones diferenciales. Como hemos mencionado anteriormente podemos elegir la funcion de peso R de manera de producir efectos convenientes en la aproximacion. Como es sabido ([25], [31]), si el metodo de elementos nitos standard (tomando puntos equiespaciados y funciones lineales a trozos) es usado para resolver la ecuacion (5.1.1) es necesario considerar mallas sucientemente nas h 2b , donde h es el tama~no de la malla, para que no aparezcan oscilaciones. Por otro lado, si se aplica el metodo MLS es posible elegir R de forma tal de incorporar el caracter no-simetrico del problema cuando la conveccion domina y en consecuencia, introducir cierta clase de up-wind para el caso en que b es grande a n de evitar la presencia de oscilaciones. 58 Experimentos Numericos 59 Aproximaciones de Galerkin Vamos a presentar dos ejemplos que ejemplican el uso de MLS como metodo de Galerkin para la resolucion numerica de ecuaciones diferenciales. Recordemos que dado el problema variacional: Hallar u 2 V H 1( ) tal que a(u; v ) = L(v ); 8v 2 V con a una forma bilineal, continua y coerciva en V y L un operador lineal y continuo, podemos usar MLS para denir aproximaciones de Galerkin como se explico en la seccion 1.2.1 del Captulo 1. Consideraremos entonces VR = spanf1 ; : : :; ng, donde j , 1 j n son las funciones base denidas en (1.1.6). Sabemos que si R 2 C 1 (BR (0)) \ W 1;1 (IR) luego j 2 H 1( ) y en consecuencia podemos denir la aproximacion de Galerkin uR 2 VR como uR (x) = donde u1 ; : : :; un es la solucion al sistema n X j =1 n X j =1 j (x)uj a(j ; k)uj = L(k); 1 k n Ademas por el Lema de Cea ([7], [10]), y los Teoremas 2.2.1 y 2.2.2 tenemos que : ku ? uRkV c vmin ku ? vkV c ku ? u^kV CRmkum+1kL1( ) 2VR (5.1.2) y en virtud de los resultados de los Teoremas 3.2.1 y 3.2.2 tenemos tambien que existe C tal que ku ? uRkV c ku ? u^kV CRmjujH m ( ) (5.1.3) +1 donde c es la constante de continuidad y es la constante de coercividad de a(; ) en V . En particular tenemos que, uR converge a u cuando R ! 0. Consideremos ahora una forma equivalente para la ecuacion de conveccion-difusion (5.1.1) Sea ue(x) = u(x) ? x luego tenemos que, ? ue00 + bue0 = ?b (5.1.4) ue(0) = ue(1) = 0 El problema variacional es entonces hallar ue 2 V = H01 (0; 1), tal que: a(ue; v) = L(v ); 8v 2 V donde a(ue; v) = Z1 0Z L(v ) = ? Z1 0 0 ue v + bue0v 0 1 0 bv 60 Captulo 5 Es sabido que la forma bilineal a(:) es coerciva y continua [31] en consecuencia, las estimaciones de error (5.1.2) y (5.1.3) se tienen (con la constante C dependiendo de b). Para R > 0 vamos a considerar la siguiente funcion de peso 8 > < e R (z ) = > e >0 : z 2 R ) ?e1 1z?e21 2 ( R ) ?e2 1?e2 1( ?R < z < 0 0z<R otro caso; (5.1.5) donde 1 y 2 son constantes que elegiremos dependiendo del valor de b. Vamos a considerar dos casos, b = 1 y b = 20. En ambos casos elegiremos puntos equiespaciados y el calculo de las integrales se realizara generando una particion adecuada del intervalo de integracion y calculando la integral en cada intervalito mediante la regla del punto medio. En el primer caso, b = 1, la conveccion y la difusion son del mismo orden y por lo tanto no es necesario hacer up-wind. La nalidad de este ejemplo es simplemente chequear el orden de convergencia que predijimos. Por `renar' entendemos reducir el valor de R agregando puntos de forma tal de preservar la conguracion inicial. Podemos tomar, por ejemplo, 1 = 2 = 1 que corresponde a elegir una funcion de peso simetrica como se muestra en la Figura 5.1. En la Figura 5.2 mostramos, comparativamente, la solucion exacta y la solucion aproximada usando MLS con n = 5 puntos equiespaciados y m = 1. En la Figura 5.3 y la Figura 5.4 mostramos el orden del error, en terminos de R, en la aproximacion de la funcion y sus derivadas en norma L1 (para mayor claridad se graco usando escala logaritmica, i.e, gracamos el logaritmo del error en funcion del logaritmo de R). Observamos que, se obtuvo orden optimo en L1 para la aproximacion tanto de u como de u0 , i.e el orden esperado cuando se aproxima usando polinomios de grado 1. En particular se tiene el orden de convergencia en H 1 que predijimos. El caso b = 20 es esencialmente distinto pues en este caso, la conveccion es dominante y por lo tanto, elegimos una funcion de peso no-simetrica tomando 1 = ?30 y 2 = 1 como se muestra en la Figura 5.5. A n de establecer comparaciones, en las Figuras 5.6, 5.7 y 5.8 se muestran los resultados que se obtienen, en este caso, cuando se utiliza elementos nitos lineales standard, el metodo usual de up-wind de diferencias nitas y MLS respectivamente para n=5, y en las Figuras 5.9, 5.10 y 5.11 para n=10. Como es sabido el primer metodo presenta oscilaciones (que para evitarlas deberiamos trabajar con mallas mas nas). Aunque no lo hemos demostrado, es de esperar que MLS permita introducir up-wind preservando el orden de convergencia cuadratico cuando R ! 0. En este sentido observemos que, si bien el metodo de diferencias nitas con upwind al igual que MLS no presenta oscilaciones, la aproximacion usando MLS es claramente mejor. Colocacion Otra alternativa para la aplicacion de MLS para resolver ecuaciones diferenciales es usar Colocacion, como se explico en la seccion 1.2.2. Por la Observacion 1.1.4 sabemos que si 2 C 2(IR) luego las funciones base j estan en C 2( ). Tomemos m = 2, a partir de los Teoremas 2.2.1 y 2.2.2 tenemos demostrada la consistencia del metodo. Consideramos el caso b = 20 e intentamos introducir up-wind eligiendo una funcion de peso no-simetrica, como denimos a continuacion y Experimentos Numericos 61 cuyo graco se muestra en la Figura 5.12 con 1 = ?30 y 2 = 1. 8 > > < e R(z ) = > e > :0 z 4 R ) ?e1 (1 ? ( z )2)4 R 1z?e41 2 ( R ) ?e2 z 24 1?e2 (1 ? ( R ) ) 1( ?R < z < 0 0z<R otro caso; (5.1.6) En las Figuras 5.13 y 5.14 mostramos las aproximaciones obtenidas tomando puntos equiespaciados en los casos n = 8 y n = 15 respectivamente. Nuevamente podemos observar la ausencia de oscilaciones. Formulas de Diferencias Como explicamos anteriormente (ver seccion 1.2.3 del Captulo 1) el metodo MLS puede ser usado para generar formulas de diferencias nitas de la siguiente manera: Para cada x 2 ,k?sea ) )2 a(x) = (ak (x))1km+1 el que se obtiene minimizando Pnj=1 (x ? j )(uj ? Pmk=1+1 ak (x) (j(?k?x1)! i.e a es la solucion al sistema t PW (x)P a = PW (x)u donde P es una matriz de m + 1 n cuya j ?esima la es p = (pj (1); ; pj (n )) con pj (y ) = (y?x)j? , u = (u( ); ; u( ))t y W(x) es la matriz diagonal de n n, W(x) = diag ( (x ? 1 n R (j ?1)! 1 ); ; R(x ? n )). El metodo propone aproximar u(k) (x) por ak+1 (x), 1 k m +1. y usando esta aproximacion en la ecuacion (5.1.4) se obtiene un esquema de diferencias nitas cuya consistencia esta demostrada por el Teorema 2.2.3. La ventaja de este tipo de esquemas, a diferencia de Colocacion, es que nos evitamos el calculo de las derivadas de los coecientes ak (x). En la Figura 5.15 mostramos la aproximacion obtenida para el caso b = 20 tomando n = 8, puntos equiespaciados, m = 2 y la funcion de peso denida en (5.1.6) con los mismos valores de 1 y 2 que utilizamos al aplicar colocacion para este caso. 1 1 j 5.1.2 Ejemplo de aplicacion de CMLS Para los mismos ejemplos tratados en la seccion anterior, mostramos los resultados obtenidos al aplicar CMLS a la resolucion numerica de ecuaciones diferenciales con la tecnica que se menciono en la seccion (4.3) del Captulo 4. En la Figura 5.16 presentamos el resultado obtenido para el caso b = 1 y en la Figuras 5.17 y 5.18 los resultados obtenidos para b = 20 con n = 8 y n = 15 puntos equiespaciados respectivamente. En ambos casos se utilizo la funcion de peso denida en 5.1.5 con los mismos parametros de 1 y 2 que se utilizaron previamente, al aproximar mediante MLS, dependiendo del valor de b. 62 Captulo 5 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 -0.08 -0.06 -0.04 -0.02 0 0.02 weight function 0.04 0.06 0.08 Figura 5.1: Funcion de peso simetrica m=1 n= 5 b= 1 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 true solution approximation 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 MLS 0.6 0.7 0.8 0.9 1 Figura 5.2: Solucion exacta vs Solucion por MLS Experimentos Numericos 63 −4 −4.5 −5 log(Error) −5.5 −6 −6.5 −7 −7.5 −8 −8.5 −3 −2.8 −2.6 −2.4 −2.2 −2 log(R) −1.8 −1.6 −1.4 −1.2 Figura 5.3: ku ? uR kL1 ( ) = O(R2) −3 −3.2 −3.4 log(Error) −3.6 −3.8 −4 −4.2 −4.4 −4.6 −4.8 −3 −2.8 −2.6 −2.4 −2.2 −2 log(R) −1.8 −1.6 −1.4 −1.2 Figura 5.4: ku0 ? u0R kL1 ( ) = O(R) 64 Captulo 5 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 -0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 weight function 0.2 0.3 0.4 0.5 Figura 5.5: Funcion de peso no-simetrica finite element 1 0.5 true solution approximation 0 -0.5 0 0.1 0.2 0.3 0.4 0.5 0.6 n= 5 b= 20 0.7 0.8 0.9 1 Figura 5.6: Solucion exacta vs Solucion por elementos nitos Experimentos Numericos 65 finite difference 1 0.9 0.8 0.7 0.6 0.5 true solution 0.4 approximation 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 n= 5 b= 20 0.7 0.8 0.9 1 Figura 5.7: Solucion exacta vs Solucion por diferencias nitas upwind m=1 n= 5 b = 20 1 0.8 0.6 0.4 true solution approximation 0.2 0 -0.2 0 0.1 0.2 0.3 0.4 0.5 MLS 0.6 0.7 0.8 0.9 1 Figura 5.8: Solucion exacta vs Solucion por MLS 66 Captulo 5 finite element 1 0.8 0.6 0.4 true solution approximation 0.2 0 -0.2 0 0.1 0.2 0.3 0.4 0.5 0.6 n= 10 b= 20 0.7 0.8 0.9 1 Figura 5.9: Solucion exacta vs Solucion por elementos nitos finite difference 1 0.9 0.8 0.7 0.6 0.5 true solution 0.4 approximation 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 n= 10 b= 20 0.7 0.8 0.9 1 Figura 5.10: Solucion exacta vs Solucion por diferencias nitas upwind Experimentos Numericos 67 m=1 n = 10 b = 20 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 true solution approximation 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 MLS 0.6 0.7 0.8 0.9 1 Figura 5.11: Solucion exacta vs Solucion por MLS 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 -0.4 -0.3 -0.2 -0.1 0 0.1 weight function 0.2 0.3 0.4 Figura 5.12: Funcion de peso 68 Captulo 5 m=2 n= 8 b = 20 1 0.8 0.6 0.4 true solution approximation 0.2 0 -0.2 0 0.1 0.2 0.3 0.4 0.5 MLS 0.6 0.7 0.8 0.9 1 Figura 5.13: Solucion exacta vs Solucion usando colocacion m=2 n = 15 b = 20 1 0.9 0.8 0.7 0.6 0.5 0.4 true solution 0.3 approximation 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Figura 5.14: Solucion exacta vs Solucion usando colocacion Experimentos Numericos 69 m=2 n= 8 b = 20 1.2 1 0.8 0.6 0.4 true solution approximation 0.2 0 −0.2 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Figura 5.15: Solucion exacta vs Solucion aproximada n= 5 m=1 1 0.9 0.8 0.7 0.6 0.5 0.4 true solution 0.3 approximation 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Figura 5.16: Solucion exacta vs Solucion usando CMLS 70 Captulo 5 n= 8 m=1 1 0.9 0.8 0.7 0.6 0.5 0.4 true solution 0.3 approximation 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Figura 5.17: Solucion exacta vs Solucion usando CMLS n = 15 m=1 1 0.9 0.8 0.7 0.6 0.5 0.4 true solution 0.3 approximation 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Figura 5.18: Solucion exacta vs Solucion usando CMLS Experimentos Numericos 71 5.2 El caso bidimensional En esta seccion nos ocuparemos del problema de conveccion-difusion en el caso bidimensional: ? u + bru = 0; en = (0; 1) (0; 1) uj@ = g (x) (5.2.7) 8 b (x?1) r1 r2 > (e ? e ) y = 1 < xe g(x; y) = > er y ? er2y x=1 :0 en x = 0 e y = 0; con 1 2 1 donde r1 = b ?k2 bk y r2 = b +2kbk . La solucion exacta a este problema se muestra en la Figura 5.19 Nuestro interes es obtener aproximaciones a la solucion de la ecuacion (5.2.7) usando MLS. Nuevamente deseamos elegir una funcion de peso apropiada ( que tenga presente la asimetra del problema) a n de evitar la presencia de oscilaciones. Se planteaba el problema de generalizar a mas dimensiones la idea de up-wind del caso unidimensional. Inspirados en este caso proponemos la siguiente funcion de peso: R (x1; x2) = e R (x1)e R (x2) donde e R es la que utilizamos en el caso unidimensional i.e 2 2 8 e?a Rz ?e?a > < 1?e?a si ?R < z < 0 e R (z ) = > e Rz ?e si 0 z < R : 0 1?e en otro caso; ( ( )2 )2 La eleccion del parametro a dependera de b1 al considerar e R (x1 ) y de b2 al considerar e R (x2 ) Se realizaron experimentos numericos tomando b = (1; 20), la correspondiente funcion de peso se muestra en la Figura 5.21. Para los experimentos numericos que se detallan a continuacion tomamos una malla uniforme con 5 nodos en cada direccion. En la Figura 5.20 se muestra la aproximacion obtenida utilizando la aproximacion usual por diferencias nitas para las derivadas segundas y diferencias centradas para las de primer orden, como es sabido se observan oscilaciones. En la Figura 5.22 mostramos los resultados obtenidos usando MLS, nuestra eleccion de la funcion de peso, adecuada a las caractersticas del problema, evita la presencia de oscilaciones. 72 Captulo 5 8 x 10 5 4 3 2 1 0 1 0.8 1 0.6 0.8 0.6 0.4 0.4 0.2 0.2 0 0 Figura 5.19: Solucion de la ecuacion de conveccion-difusion 8 x 10 6 4 2 0 −2 −4 −6 −8 1 1 0.8 0.8 0.6 0.6 0.4 0.4 0.2 0.2 0 0 Figura 5.20: Solucion por diferencias nitas Experimentos Numericos 73 weight function 1 0.8 0.6 0.4 0.2 0 1 0.6 0.5 0.4 0.2 0 0 −0.2 −0.5 −0.4 −1 eje y −0.6 −0.8 eje x Figura 5.21: funcion de peso 8 x 10 5 4 3 2 1 0 −1 1 0.8 1 0.6 0.8 0.6 0.4 0.4 0.2 0.2 0 0 Figura 5.22: Solucion usando MLS Bibliografa [1] Armentano M. G., Duran R. G. Error estimates for moving least square approximations, submitted (1999). [2] Armentano M. G. Error estimates in Sobolev Spaces for moving least square approximations, submitted (1999). [3] Babuska, I. Error bounds for nite element method, Numer. Math., 16, 322-333, (1971). [4] Babuska, I. and Melenk J. M. The partition of unity method, International Journal for numerical methods in engineering, 40, 727-758, (1997). [5] Belytschko T. Lu Y.Y., Gu L. A new implementation of the element free Galerkin method, Comput. Methods Appl. Mech. Engrg., 113, 397-414 (1994). [6] Belytschko T., Krysl P. Element-free Galerkin method: Convergence of the continuous and discontinuous shape functions , Comput. Methods Appl. Mech. Engrg., 148, 257-277 (1997). [7] Brenner S. C. and Scott L. R. The Mathematical Theory of Finite Element Methods , SpringerVerlag, New York, (1994). [8] Brezis, H. Analyse Fonctionnelle, Theorie et Applications, Masson, (1983). [9] Calderon A. P. and Zygmund A. Local properties of solution of elliptic partial dierential equations, Studia Mathematica, 171-225 (1961). [10] Ciarlet P. G. The Finite Element Method for Elliptic Problems, North Holland, Amsterdam, (1978). [11] Colominas I., Mar Chao, Navarrina F. and Casteleiro M. Application of Meshless Method to the analysis and design of Grounding Systems, Proccedings of `Fourth World Congress on Computationas Mechanics', Argentina, (1998) [12] Conte S. D. and C. deBoor Elementary Numerical Analysis, McGraw-Hill, New York, (1980). [13] Dolbow J., Belytschko T. Numerical Integration of the Galerkin weak form in meshfree method, Computational Mechanics, 23, 219-230 (1999) [14] Dupont T., Scott R. Polynomial approximation of function in Sobolev Spaces, Mathematics of Computation, 34, 441-463 (1980). 74 Bibliografa 75 [15] Duran R. G. On polynomial approximation in Sobolev Spaces, SIAM J. Numer. Anal., 20, 985-988 (1983). [16] Fleming M, Chu Y. A., Moran B, and Belytschko T. Enriched element free Galerkin methods for crack tip elds, International Journal for numerical methods in engineering, 40, 1483-1504, (1997). [17] Grisvard P. Elliptic problems in nonsmooth domains, Pitman, (1985). [18] Johnson L. W., Riess R. D. Numerical Analysis, Addison-Wesley, (1982). [19] Johnson, C. Numerical Solution of partial dierential Equations by the Finite Element Method, Cambridge University Press, Cambridge, (1987) [20] Kincaid D., Cheney W. Analisis Numerico, Addison Wesley Iberoamericana, (1994) [21] Lancaster, P. Salkauskas K. Surfaces Generated by Moving Least Squares Methods, Mathematics of Computation,37,141-158 (1981). [22] Levin, D. The approximation power of moving least-squares, Mathematics of Computation,67,1335-1754 (1998). [23] Marano M. Mejor Aproximacion Local , Tesis de Doctorado en Matematicas - U. N. de San Luis, (1986). [24] Melenk J. M. and Babuska I. The partition of unity nite element method: Basic theory and applications, Comput. Methods Appl. Mech. Engrg., 139, 289-314 (1996). [25] Morton K. W. Numerical Solution of Convection-Diusion Problems, Chapman & Hall, (1996) [26] Motzkin, T. S. and Walsh J. L. Polynomials of best approximation on a real nite point set, Trans. Amer. Math. Soc.,91, 231-245 (1959). [27] O~nate E., Idelsohn S. and Zienkiewicz O. C. Finite point method in computational mechanics, CIMNE, report, (1995). [28] Orkisz J. Meshless Finite Dierence Method I. Basic Approach, Proccedings of 'Fourth World Congress on Computationas Mechanics', Argentina,(1998) [29] Orkisz J. Meshless Finite Dierence Method II. Adaptive Approach, Proccedings of `Fourth World Congress on Computationas Mechanics', Argentina, (1998) [30] Rice, J. R. Best approximation and interpolating functions, Trans. Amer. Math. Soc.,101, 477-498 (1961). [31] Roos H. G., Stynes M. and Tobiska L. Numerical Methods for Singularity Perturbed Dierential Equations, Springer, (1996). [32] Shepard D. A two-dimensional interpolation function for irregularly spaced points, Proc. A.C.M Natl. Conf. ,517-524 (1968). 76 Bibliografa [33] Taylor R., Zienkiewicz O. C., O~nate E., and Idelsohn S. Moving least square approximations for the solution of dierential equations, CIMNE, report, (1995). [34] Verfurth R. A note on polynomial approximation in Sobolev Spaces, Rairo M 2 AN, 33, 715719, (1999).