INSTITUTO TECNOLÓGICO DE CANCÚN INGENIERIA CIVIL MÉTODOS NUMÉRICOS ACTIVIDAD: INVESTIGACIÓN UNIDAD 1: INTRODUCCIÓN A LOS MÉTODOS NUMÉRICOS DOCENTE: LUIS ARON CHULIN BACA MORALES MORENO LEVI GABRIEL CANCUN, QUINTANA ROO Contenido INTRODUCCIÓN ............................................................................................................................3 CONCEPTOS ..............................................................................................................................3 IMPORTANCIA DE LOS MÉTODOS NUMÉRICOS DESDE MI PUNTO DE VISTA ...............................6 Fuentes de información ...............................................................................................................7 INTRODUCCIÓN En este artículo definiremos los métodos numéricos, el análisis numérico y los usos del análisis numérico. Los métodos numéricos son una sucesión de operaciones matemáticas utilizadas para encontrar una solución numérica aproximada a un problema determinado. Los métodos numéricos son utilizados en ingeniería para facilitar la resolución de problemas que conllevan una enorme cantidad de cálculos, lo que permite ahorrar tiempo. Por lo general, los métodos numéricos se utilizan en ordenadores, dispositivos electrónicos o software especializados en ingeniería, los cuales, ya tienen incluidos los métodos numéricos en sus algoritmos de resolución, siendo vitales en el área de simulación de procesos y para dar respuestas rápidas donde una solución analítica se vuelve compleja. El objetivo principal del análisis numérico es encontrar soluciones “aproximadas” a problemas complejos utilizando sólo las operaciones más simples de la aritmética. Se requiere de una secuencia de operaciones algebraicas y lógicas que producen la aproximación al problema matemático. CONCEPTOS Cifra significativa: El concepto de cifra significativa lo podemos definir como aquella que aporta información no ambigua ni superflua acerca de una determinada medida experimental, son cifras significativas de un numero vienen determinadas por su error. Son cifras que ocupan una posición igual o superior al orden o posición de error. Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda usarse con confianza. El concepto de cifras significativas tiene dos implicaciones importantes en el estudio de los métodos numéricos. 1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios para especificar qué tan precisos son los resultados obtenidos. 2.- Aunque ciertos números representan número específicos, no se pueden expresar exactamente con un número finito de cifras. Reglas de operaciones con cifras significativas. Regla 1: los resultados experimentales se expresan con una sola cifra dudosa, e indicando con + - la incertidumbre en la medida. Regla 2: las cifras significativas se cuentan de izquierda a derecha, a partir del primer dígito diferente de cero y hasta el digito dudoso. Regla 3: al sumar o restar dos números decimales, el número de cifras decimales del resultado es igual al de la cantidad con el menor número de ellas. Regla 4: al multiplicar o dividir dos números, el número de cifras significativas del resultado es igual al del factor con menos cifras. Precisión y exactitud: En ingeniería, ciencia, industria, estadística, exactitud y precisión no son equivalentes. Es importante resaltar que la automatización de diferentes pruebas o técnicas puede producir un aumento de la precisión. Esto se debe a que con dicha automatización, lo que logramos es una disminución de los errores manuales o su corrección inmediata. Precisión: se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de la variabilidad es la desviación estándar de las mediciones y la precisión se puede estimar como una función de ella. Exactitud: se refiere a cuán cerca del valor real se encuentra el valor medido. En términos estadísticos, la exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el sesgo más exacto es una estimación. Incertidumbre: Incertidumbre también se le conoce como Imprecisión. Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero. Situación bajo la cual se desconocen las probabilidades de ocurrencia asociados a los diferentes resultados de un determinado evento. Sesgo: Existe sesgo cuando la ocurrencia de un error no aparece como un hecho aleatorio (al azar) advirtiéndose que este ocurre en forma sistemática Es un alejamiento sistemático del valor verdadero a calcular. Tipos de Errores Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades matemáticas. Estos incluyen de truncamiento que resultan de representar aproximadamente un procedimiento matemático exacto, y los errores de redondeo, que resultan de presentar aproximadamente números exactos. • ERROR ABSOLUTO Se define como la diferencia que existe entre el valor exacto y su valor calculado o redondeado. El error absoluto no es negativo, debido a que la definición se dio en términos del valor absoluto. Así pues, una suma (colección) de errores siempre se incrementa juntas, sin reducirse. Error Absoluto = | valor exacto – valor calculado| εa=X−Xi • ERROR RELATIVO. Es el cociente (la división) entre el error absoluto y el valor exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser por exceso o por defecto. no tiene unidades. Error Relativo = |X – Xr| / |X| • ERROR POR REDONDEO Error de redondeo. La casi totalidad de los números reales requieren, para su representación decimal, de una infinidad de dígitos. En la práctica, para su manejo sólo debe considerarse un número finito de dígitos en su representación, procediéndose a su determinación mediante un adecuado redondeo. Los errores de redondeo se deben a que las computadoras sólo guardan un número finito de cifras significativas durante un cálculo. Las computadoras realizan esta función de maneras diferentes. Por ejemplo, si sólose guardan siete cifras significativas, la computadora puede alamcenar y usar “pi” como “pi” = 3.141592, omitiendo los términos restantes y generando un error de redondeo. • ERROR POR TRUNCAMIENTO Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemático exacto. Además para obtener conocimiento de las características de estos errores se regresa a la formulación matemática usada ampliamente en los métodos numéricos para expresar Funciones en forma polinomial: Serie de Taylor • ERROR SIGNIFICATIVO Tener presente este tipo de error significa que el número de cifras significativas (es decir, que tengan sentido y sean válidas) es algunas veces menor de lo esperado. Ocurre con mayor frecuencia cuando se restan números casi iguales, pero también puede ocurrir cuando varios números de magnitud y signo diferentes se suman o cuando se emplea un divisor relativamente pequeño. • ERROR PROPAGADO Puede definirse como el error de salida provocado por un error en la entrada, suponiendo que todos los cálculos intermedios se efectúan exactamente (en particular, sin error de redondeo). Incluye la evaluación de funciones cuando el valor del dominio es aproximado, raíces de polinomios cuyos coeficientes se han redondeado o aproximado, etc. Por supuesto, en una situación realista todos los tipos de error pueden intervenir, de modo que la salida de un proceso contendrá el error propagado más los errores generados en el proceso. xr denota un valor redondeado de x; ƒr(t) indicará el valor redondeado de ƒ(t). ƒ(tr) podría ser un número decimal infinito que debe o requeriría redondeo. IMPORTANCIA DE LOS MÉTODOS NUMÉRICOS DESDE MI PUNTO DE VISTA Las razones para utilizar métodos numéricos en vez de métodos de resolución analíticos, sin embargo, las podemos resumir en dos razones fundamentales: Resolver problemas muy complejos, en los cuales no se puede hallar una solución analítica. Resolver problemas con gran cantidad de cálculos, que harían casi imposible su resolución manual. Hablando de nuestra carrera, los métodos numéricos en la ingeniería civil son más importantes de lo que creemos porque nos ayudan a resolver un sinfín de cálculos que se nos pudieran presentar en el desarrollo de alguna obra y que los métodos numéricos pueden ser aplicados para resolver procedimientos matemáticos en: · Cálculo de derivadas · Integrales · Ecuaciones diferenciales · Operaciones con matrices · Interpolaciones · Ajuste de curvas · Polinomios En la actualidad la tecnología ha avanzado muchísimo en cuestión de programas y los métodos no se han quedado atrás nos han venido presentando nuevas soluciones y ahora contamos con muchos programas, los métodos numéricos en nuestra vida son de suma importancia ya que nos ayudan a solucionar problemas determinados, con las sucesiones de soluciones matemáticas que ofrecen nos ayudan a que sea más sencillo resolverlos. Fuentes de información Noguera, I. B. (2021, 28 noviembre). ¿Qué son los métodos numéricos? IngenierÃa QuÃmica Reviews. Recuperado 7 de septiembre de 2022, de https://www.ingenieriaquimicareviews.com/2020/10/metodos-numericos.html 1.2 Conceptos básicos: cifra significativa, precisión, exactitud, incertidumbre y sesgo. - MetNumVMC. (s. f.). Metodos numericos. Recuperado 7 de septiembre de 2022, https://sites.google.com/site/metnumvmc/unidad-i-2/1-2-1-2-conceptos-basicoscifrasignificativa-precision-exactitud-incertidumbre-y-sesg de https://metnumerico.wordpress.com/2016/11/06/formas-de-medir-elerror/