INTRODUCCIÓN A LOS METODOS NÚMERICOS ACTIVIDAD INDEPENDIENTE No. 1 PRESENTADO POR: BRIANITH A. NAVARRO MARCHENA ESTUDIANTE ING. INDUSTRIAL TALLER DE DESARROLLO PRESENTADO A: ING. EDGARDO VUELVAS METODOS NUMERICOS AREA: MATEMATICAS CORPORACIÓN UNIVERSITARIA DE LA COSTA BARRANQUILLA – COLOMBIA MARZO DE 2011 CONTENIDO INTRODUCCIÓN OBJETIVO 1. ¿QUÉ SON LOS METODOS NUMERICOS (M.N)? 2. EXPLICACIÓN DE LA IMPORTANCIA DE LOS M.N EN INGENIERIA 3. ¿CÓMO SE DEFINE PRESICIÓN? 4. ¿CÓMO SE DEFINE EXACTITUD? EJEMPLO DE EXATITUD Y PRESICIÓN 5. ¿QUÉ SON Y CÓMO SE DEFINEN LAS CIFRAS O DIGITOS SIGNIFICATIVOS? 6. ¿QUÉ ES EL ERROR? 7. ¿CUÁLES SON LOS TIPOS DE ERRORES QUE SE PRESENTAN? 8. ¿CUÁLES SON LAS VALORACIONES DEL ERROR? CONCLUSIONES BIBLIOGRAFIA Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 2 INTRODUCCIÓN A medida que avanzamos a un nivel profesional encontramos las matemáticas más complejas desde una perspectiva real, es decir, los problemas que se plantean en la vida cotidiana, sobre todo en ingeniería, que abarcan como plano inicial el contenido matemático y aritmético para la solución de los problemas planteados. Como ingenieros no solo encontramos una solución a los problemas sino también una eficiente, aplicable teórica y prácticamente que indiscutiblemente se verá afectada por medios ajenos a la práctica, valores que tenemos en cuenta para concluir con éxito una situación, optimizándola gracias a métodos numéricos obteniendo una solución exacta y precisa del problema. En el trabajo a continuación, se plantea de manera sencilla los conceptos básicos para tener en cuenta y arrancar exitosamente el curso de métodos numéricos, avanzando a situaciones complejas para valernos por medios computacionales y desarrollando pequeños software para grandes soluciones. OBJETIVOS Investigar cual es la concepción básica de los métodos numéricos; el significado de la teoría del error su tipología y su valoración. Además, dominar y manejar los conceptos de precisión, exactitud y cifras significativas. Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 3 1. ¿QUÉ SON LOS MÉTODOS NUMÉRICOS? Los procedimientos lógicos que se realizan a partir de problemas planteados matemáticamente y de manera aritmética, esos son los métodos numéricos. Herramientas poderosas que se usan en la formulación de problemas complejos que requieren de un conocimiento básico en ciencias matemáticas e ingeniería adaptando un sinnúmero de cálculos aritméticos que ordenados de manera lógica resuelven problemas de alta complejidad manejando sistemas de ecuaciones grandes, no linealidades y geometrías complicadas. Sin embargo, gracias al apoyo computacional podemos emplear aplicaciones y desarrollar software que contenga métodos numéricos. El uso inteligente de estos programas depende del conocimiento de la teoría básica de estos métodos; además hay muchos problemas que no pueden plantearse al emplear programas hechos, conociendo bien los métodos numéricos se puede diseñar programas propios y así no comprar software costoso. Al mismo tiempo se aprende a conocer y controlar los errores de aproximación que son inseparables de los cálculos numéricos a gran escala. 2. EXPLICACIÓN DE LA IMPORTANCIA DE LOS MÉTODOS NUMÉRICOS EN INGENIERIA. La ingeniería es el conjunto de conocimientos científicos aplicados a la invención, perfección y utilización de la técnica industrial para la optimización de problemas que afectan directamente a los seres humanos. Está completamente ligada con las ciencias matemáticas y físicas que a partir de ellas realiza conclusiones y la toma de decisiones completamente eficientes según las situaciones que se presenten. El campo de la ingeniería, sea cual sea, se plantea a grande escala, ya que de ella depende el impacto causado a la sociedad, por lo tanto la precisión y exactitud en los resultados debe ser a partir de procesos lógicos y reales que no distorsionen la continuidad o finalidad de un proyecto exitoso ¿Pero qué tiene que ver los métodos numéricos ahí? Tanto que ya lo mencionamos. Gracias a estos podemos mantener un edificio en pie, una planta eléctrica produciendo energía constantemente, transportarnos en motos, carros, aviones, programas que faciliten la comunicación, la interacción, la contabilidad, los procesos médicos, productos químicos y la optimización de todos, cada uno y muchos más de ellos ya que los métodos numéricos abarcan los principios que nos permiten perfeccionar u optimizar aquellos procesos que desarrollan el producto final, con menos porcentaje de error, casi perfectos. Un ingeniero conoce el valor intrínseco de una cifra decimal. Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 4 3. ¿CÓMO SE DEFINE PRESICIÓN? En métodos numéricos se refiere al número de cifras significativas que representa una cantidad. La precisión se define a partir de la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Es decir, por ejemplo una máquina precisa es aquella que si repetimos una medida varias veces nos arroja un resultado parecido. 4. ¿CÓMO SE DEFINE EXACTITUD? Se refiere a la aproximación de un número o de una medida al valor numérico que se supone representa. La exactitud la definimos a partir de qué tan cerca del valor real se encuentra el valor medido. Cuando expresamos la exactitud de un resultado se expresa mediante el error absoluto que es la diferencia entre el valor experimental y el valor verdadero. Es decir, por ejemplo, Una máquina exacta es aquella que si repetimos una medida varias veces nos arroja resultados próximos al valor real. EJEMPLO DE EXATITUD Y PRESICIÓN Por ejemplo, π (pi) es un número irracional constituido por un número infinito de dígitos; 3.141592653589793… es una aproximación tan buena de π, que tal podría considerarse que es su valor exacto. Al considerar las siguientes aproximaciones de π: es impreciso e inexacto. es exacto pero impreciso. es preciso pero inexacto. es exacto y preciso. Los métodos numéricos deben ofrecer soluciones suficientemente exactas y precisas. El término error se usa tanto para representar la inexactitud como para medir la imprecisión en las predicciones. 5. ¿QUÉ SON Y CÓMO SE DEFINEN LAS CIFRAS O DIGITOS SIGNIFICATIVOS? El concepto de cifras significativas es uno de los criterios en análisis de incertidumbre, al superponerse en las consideraciones de tipo matemático y de tipo físico. En general, estamos interesados en encontrar un concepto de significación física (por tanto Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 5 experimental, no exclusivamente numérica) de una determinada cifra integrante de una expresión numérica. Es evidente que ello dependerá la medida concreta y vendrá determinada por su incertidumbre experimental concreta. Podemos definir el concepto de cifra significativa como aquella que aporta información no ambigua ni superflua acerca de una determinada medida experimental. Las cifras significativas aparecen como resultado de los cálculos y no tienen significado alguno. Las significativas de un número vienen determinadas por su error. Son cifras aquellas que ocupan una posición igual o superior al orden o posición error. Esta definición nos conduce a las siguientes reglas de cómputo de cifras significativas, general aunque no universalmente admitidas: 1. Todas las cifras diferentes de cero que expresan cantidades iguales o superiores a la incertidumbre experimental son significativas. A la hora de contar el número de cifras exactas o significativas no se tiene en cuenta los ceros que están a la izquierda de la primera cifra no nula. 2. Todos los ceros entre dígitos significativos son significativos. 3. Los ceros a la izquierda del primer digito que no es cero sirven solamente para fijar la posición del punto decimal y no son significativos. Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 6 4. En un número con dígitos a la derecha del punto decimal, los ceros a la derecha del último número diferente de cero son significativos. 5. En un numero que no tiene punto decimal y que termina con uno o más ceros (como 3600), los ceros con los cuales termina el numero pueden ser o no significativos. El número es ambiguo en términos de cifras significativas. Antes de poder especificar el número de cifras significativas, se requiere información adicional acerca de cómo se obtuvo el número. Se evitan confusiones expresando los números en notación científica. Cuando están expresados en esta forma, todo el dígito se interpreta como significativo. 6. ¿QUÉ ES EL ERROR? El concepto de error es consustancial con el cálculo numérico. En todos los problemas es fundamental hacer un seguimiento de los errores cometidos a fin de poder estimar el grado de aproximación de la solución que se obtiene. Los errores asociados a todo cálculo numérico tienen su origen en dos grandes factores: Aquellos que son inherentes a la formulación del problema. Los que son consecuencia del método empleado para encontrar la solución del problema. Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 7 Dentro del grupo de los primeros, se incluyen aquellos en los que la definición matemática del problema es sólo una aproximación a la situación física real. Estos errores son normalmente despreciables; por ejemplo, el que se comete al obviar los efectos relativistas en la solución de un problema de mecánica clásica. En aquellos casos en que estos errores no son realmente despreciables, nuestra solución será poco precisa independientemente de la precisión empleada para encontrar las soluciones numéricas. Otra fuente de este tipo de errores tiene su origen en la imprecisión de los datos físicos: constantes físicas y datos empíricos. En el caso de errores en la medida de los datos empíricos y teniendo en cuenta su carácter generalmente aleatorio, su tratamiento analítico es especialmente complejo pero imprescindible para contrastar el resultado obtenido computacional-mente. En lo que se refiere al segundo tipo de error (error computacional), tres son sus fuentes principales: 1. Equivocaciones en la realización de las operaciones (errores de bulto). Esta fuente de error es bien conocida por cualquiera que haya realizado cálculos manualmente o empleando una calculadora. El empleo de computadores ha reducido enormemente la probabilidad de que este tipo de errores se produzcan. Sin embargo, no es despreciable la probabilidad de que el programador cometa uno de estos errores (calculando correctamente el resultado erróneo). Más aún, la presencia de bugs no detectados en el compilador o en el software del sistema no es inusual. Cuando no resulta posible verificar que la solución calculada es razonablemente correcta, la probabilidad de que se haya cometido un error de bulto no puede ser ignorada. Sin embargo, no es esta la fuente de error que más nos va a preocupar. 2. El error causado por resolver el problema no como se ha formulado, sino mediante algún tipo de aproximación. Generalmente está causado por la sustitución de un infinito (sumatorio o integración) o un infinitesimal (diferenciación) por una aproximación finita. Algunos ejemplos son: El cálculo de una función elemental (por ejemplo, Seno x) empleando sólo n términos de los infinitos que constituyen la expansión en serie de Taylor. Aproximación de la integral de una función por una suma finita de los valores de la función, como la empleada en la regla del trapezoide. Resolución de una ecuación diferencial reemplazando las derivadas por una aproximación (diferencias finitas). Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 8 Solución de la ecuación f(x) = 0 por el método de Newton-Raphson: proceso iterativo que, en general, converge sólo cuando el número de iteraciones tiende a infinito. Denominaremos a este error, en todas sus formas, como error por truncamiento, ya que resulta de truncar un proceso infinito para obtener un proceso finito. Obviamente, estamos interesados en estimar, o al menos acotar, este error en cualquier procedimiento numérico. 3. Por último, la otra fuente de error de importancia es aquella que tiene su origen en el hecho de que los cálculos aritméticos no pueden realizarse con precisión ilimitada. Muchos números requieren infinitos decimales para ser representados correctamente, sin embargo, para operar con ellos es necesario redondearlos. Incluso en el caso en que un número pueda representarse exactamente, algunas operaciones aritméticas pueden dar lugar a la aparición de errores (las divisiones pueden producir números que deben ser redondeados y las multiplicaciones dar lugar a más dígitos de los que se pueden almacenar). El error que se introduce al redondear un número se denomina error de redondeo. 7. ¿CUÁLES SON LOS TIPOS DE ERRORES QUE SE PRESENTAN? Los errores de medición se clasifican en distintas clases (accidentales, aleatorias, sistemáticas). Error absoluto. Es la diferencia entre el valor de la medida y el valor tomado como exacta. Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida. Error absoluto es la imprecisión que acompaña a la medida. Nos da idea de la sensibilidad del aparato o de lo cuidadosas que han sido las medidas por lo poco dispersas que resultaron. El error absoluto indica el grado de aproximación y da un indicio de la calidad de la medida. El conocimiento de la calidad se complementa con el error relativo. Error relativo. Es el cociente (la división) entre el error absoluto y el valor exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser por exceso o por defecto. No tiene unidades. Error relativo es el que nos indica la calidad de la medida. Es el cociente entre el error absoluto y el valor que damos como representativo (la media aritmética). Se puede dar en % de error relativo. Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 9 8. ¿CUÁLES SON LAS VALORACIONES DEL ERROR? ERROR POR REDONDEO Es aquel tipo de error en donde el número significativo de dígitos después del punto decimal se ajusta a un número específico provocando con ello un ajuste en el último dígito que se toma en cuenta. Los errores de redondeo resultan de representar aproximadamente números que son exactos. Proceso mediante el cual se eliminan decimales poco significativos a un número decimal. Las reglas del redondeo se aplican al decimal situado en la siguiente posición al número de decimales que se quiere transformar, es decir, si tenemos un número de 3 decimales y queremos redondear a 2, se aplicará las reglas de redondeo: Dígito menor que 5: Si el siguiente decimal es menor que 5, el anterior no se modifica. Ejemplo: 12,612. Redondeando a 2 decimales deberemos tener en cuenta el tercer decimal: 12,612= 12,61. Dígito mayor que 5: Si el siguiente decimal es mayor o igual que 5, el anterior se incrementa en una unidad. Ejemplo: 12,618. Redondeando a 2 decimales deberemos tener en cuenta el tercer decimal: 12,618= 12,62. Ejemplo: 12,615. Redondeando a 2 decimales deberemos tener en cuenta el tercer decimal: 12,615= 12,62. En ambos casos tenemos que: Definición. Definimos el error absoluto como: ERROR POR TRUNCAMIENTO Para llevar a cabo operaciones de algunas funciones matemáticas los compiladores ejecutan estas funciones utilizando series infinitas de términos, pero es difícil llevar a cabo estos cálculos hasta el infinito, por lo tanto la serie tendrá que ser truncada. Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 10 Truncamiento es el término usado para reducir el número de dígitos a la derecha del punto decimal, descartando los menos significativos. Por ejemplo dados los números reales: Para truncar estos números a dígitos decimales, sólo consideramos los 4 dígitos a la derecha de la coma decimal. El resultado es: Nótese que en algunos casos, el truncamiento dará el mismo resultado que el redondeo, pero el truncamiento no redondea hacia arriba ni hacia abajo los dígitos, meramente los corta en el dígito especificado. El error de truncamiento puede ser hasta el doble del error máximo que se puede tener usando redondeo. Los errores de truncamiento, resultan de representar aproximadamente un procedimiento matemático exacto. Tienen relación con el método de aproximación que se usará ya que generalmente frente a una serie infinita de términos, se tenderá a cortar el número de términos, introduciendo en ese momento un error, por no utilizar la serie completa (que se supone es exacta). En una iteración, se entiende como el error por no seguir iterando y seguir aproximándose a la solución. En un intervalo que se subdivide para realizar una serie de cálculos sobre él, se asocia al número de paso, resultado de dividir el intervalo “n” veces. ERROR NUMÉRICO TOTAL El error numérico total se entiende como la suma de los errores de redondeo y truncamiento introducidos en el cálculo. Pero aquí surge un problema. Mientras más cálculos se tengan que realizar para obtener un resultado, el error de redondeo se irá incrementando. Pero por otro lado, el error de truncamiento se puede minimizar al incluir más términos en la ecuación, disminuir el paso a proseguir la iteración (o sea mayor número de cálculos y seguramente mayor error de redondeo): Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 11 El error numérico total es la suma de los errores de redondeo y de truncamiento (los errores de truncamiento decrecen conforme el número de cálculos aumenta, por lo que se encara el siguiente problema: la estrategia de disminuir un componente del error total lleva al incremento del otro). Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 12 CONCLUSIONES Gracias a los métodos numéricos podemos ser precisos y exactos en nuestros cálculos. En ingeniería, ciencia, industria y estadística, exactitud se define a partir del valor real y precisión a partir de un conjunto numerario aproximado entre sí. Tenemos en cuenta el error en un número y las cifras significativas que lo contienen. A partir de este conocimiento podemos desarrollar e implementar software personalizados y además de ello, modificar el cálculo de error con el que trabajemos. Las cifras significativas se vuelven relevantes a partir del dato que necesitemos, los errores, a su vez, son tan importantes de manera que afecta el resultado de nuestro análisis, así que tenemos en cuenta la valorización de ellos para un resultado con cifras significativas deseadas. El ingeniero implementa los métodos numéricos para perfección y optimización de sus proyectos. Los métodos numéricos se convierten en parte esenciales para nuestros cálculos ya que de ellos depende el éxito de nuestro resultado y análisis aplicado a la formulación de problemas. BIBLIOGRAFÍA CHAPRA, Steven C. CANALE, Raymond P. “MÉTODOS NUMÉRICOS PARA INGENIEROS” [5ta Edición] Páginas 53 – 62. [1] http://www.buenastareas.com/ensayos/Conceptos-Basicos-De-MetodosNumericos/48602.html [2] http://www.mitecnologico.com/Main/TeoriaDeErrores [3] http://www.mitecnologico.com/Main/ImportanciaMetodosNumericos [4]http://www.mitecnologico.com/Main/ConceptosBasicosMetodosNumericosCifraSignifi cativaPrecisionExactitudIncertidumbreYSesgo [5] http://www.mitecnologico.com/Main/TiposDeErrores http://www.mitecnologico.com/Main/DefinicionDeErrorErrorAbsolutoYRelativo [6]http://fisica.udea.edu.co/~labgicm/lab_fisica_1/teoria%20de%20errores/Cifras%20sign ificativas.pdf [7] http://www.uv.es/~diaz/mn/node2.html [8] http://www.mitecnologico.com/Main/TiposDeErrores [9] http://es.wikipedia.org/wiki/Precisi%C3%B3n_y_exactitud Introducción a los Métodos Numéricos [Brianith A. Navarro Marchena] C.U.C. Año 2010 Página 13