COLEGIO DE POSTGRADUADOS INSTITUCIÓN DE ENSEÑANZA E INVESTIGACIÓN EN CIENCIAS AGRÍCOLAS CAMPUS MONTECILLO SOCIOECONOMÍA, ESTADÍSTICA E INFORMÁTICA ESTADÍSTICA VALIDACIÓN DE MODELOS MECANÍSTICOS BASADA EN LA PRUEBA JI-CUADRADA DE FREESE, SU MODIFICACIÓN Y EXTENSIÓN SALVADOR MEDINA PERALTA TESIS PRESENTADA COMO REQUISITO PARCIAL PARA OBTENER EL GRADO DE: MAESTRO EN CIENCIAS MONTECILLO, TEXCOCO, EDO. DE MÉXICO 2006 AGRADECIMIENTOS Le dedico esta tesis a mi esposa Teo y a mis hijos Ricardo y Daniela. Al Colegio de Postgraduados, en especial al personal docente y administrativo del Programa en Estadística. A la Universidad Autónoma de Yucatán (UADY) por permitirme continuar con mi formación académica. Al Programa de Mejoramiento del Profesorado (PROMEP) por el apoyo económico otorgado durante la estancia de mis estudios de Maestría. A mi consejo particular: Dr. Enrique Arjona Suárez, Dr. Jorge Navarro Alberto, Dr. Luís Vargas Villamil y Dr. Germán Mendoza Martínez, por su disposición y aportaciones realizadas en el desarrollo de este trabajo. A Luís y Jorge por su amistad, entusiasmo, apoyo, disciplina, capacidad, ejemplo... Gracias por su apoyo académico y personal en todos los proyectos realizados. I ÍNDICE Página ÍNDICE……………………………...……………………………………….………………. II LISTA DE CUADROS……………………………………………………………………... V LISTA DE FIGURAS……………………….………………………………………………. VII RESUMEN…………………………………………………………………………………... IX SUMMARY…………………………………………………..…………….………………... X 1. INTRODUCCIÓN……………...………………………………………………………… 1 2. OBJETIVOS……………………………………………………………………………… 3 2.1. Objetivo general……………………………………………………………….. 3 2.2. Objetivos específicos…………………………………………………………. 3 3. REVISIÓN DE LITERATURA………………………………………………………….. 5 3.1. Sistema y variable de estado………………………………………………… 5 3.2. Modelo matemático…………………………………………………………… 5 3.3. Modelación empírica y mecanística………………………………………… 7 3.4. Validación de modelos: conceptos y métodos…………………………….. 8 3.4.1. Conceptos…………………………………………………………… 8 3.4.2. Métodos para la validación de modelos………………………….. 12 3.5. Pruebas para el supuesto de normalidad…………………………………... 17 3.6. Transformaciones de datos………………………………………………….. 18 4. MATERIALES Y MÉTODOS…………………………………………………………… 20 4.1. Descripción del modelo mecanístico Wakax POS………………………… 20 4.2. Descripción de los datos experimentales empleados en la validación…………………………..………………………………………….. 21 4.3. Procedimientos estadísticos para la validación de modelos basados en el planteamiento de Freese…………………………………………………. 22 4.3.1. Conceptos básicos………………………………………………….. 23 4.3.2. Validación de modelos basada en el valor absoluto del error en ausencia de sesgo…………………………………………………. 25 4.3.2.1. Pruebas estadísticas para la exactitud requerida…… 27 4.3.2.2. Prueba UMP(α’) para H'0 ………………………………. 29 II 4.3.3. Validación de modelos basada en el porcentaje del error en ausencia de sesgo…………………………………………………. 32 4.3.4. Validación por intervalo de confianza empleando el error crítico en ausencia de sesgo……………………………………………… 34 4.3.5. Planteamiento para validar un modelo en predicción de varias variables…………………………………………………................. 46 4.3.6. Planteamiento para la comparación de dos o más modelos en predicción……………………………………………………........... 48 4.3.7. Validación de modelos basada en el valor absoluto del error en presencia de sesgo constante……………………………………. 50 4.3.7.1. Pruebas estadísticas para la exactitud requerida…… 52 4.3.8. Validación por intervalo de confianza empleando el error crítico en presencia de sesgo constante………………………………… 56 4.3.9. Validación de modelos basada en el valor absoluto del error en presencia de sesgo proporcional….……………..………............ 61 4.3.9.1. Pruebas estadísticas para la exactitud requerida…… 63 4.3.10. Validación por intervalo de confianza empleando el error crítico en presencia de sesgo proporcional….………………… 65 4.3.11. Análisis exploratorio e identificación del sesgo………………… 68 5. RESULTADOS Y DISCUSIÓN………………………………………………………… 70 5.1. Procedimientos estadísticos para la validación de modelos basados en el planteamiento de Freese.………...………………………………………. 70 5.2. Validación de modelos basada en el valor absoluto del error en ausencia de sesgo………………………………………………………….... 71 5.2.1. Pruebas estadísticas para la exactitud requerida……………….. 71 5.3. Validación de modelos basada en el porcentaje del error en ausencia de sesgo…..…………………………………………………………………... 72 5.4. Validación por intervalo de confianza empleando el error crítico en ausencia de sesgo…………………………………………………………… 73 5.5. Planteamiento para validar un modelo en predicción de varias variables……………………………………………………………………….. III 75 5.6. Planteamiento para la comparación de dos o más modelos en predicción……………………………………………………………………… 76 5.7. Validación de modelos basada en el valor absoluto del error en presencia de sesgo constante………………………………………………. 77 5.7.1. Pruebas estadísticas para la exactitud requerida……………….. 78 5.8. Validación por intervalo de confianza empleando el error crítico en presencia de sesgo constante…….………………………………………… 79 5.9. Validación de modelos basada en el valor absoluto del error en presencia de sesgo proporcional.………..…………………………………. 81 5.9.1. Pruebas estadísticas para la exactitud requerida……………….. 81 5.10. Validación por intervalo de confianza empleando el error crítico en presencia de sesgo proporcional…………………………………………… 82 5.11. Planteamiento para validar un modelo en predicción de varias variables y para la comparación de dos o mas modelos en predicción cuando el modelo presenta sesgo………………………………………….. 83 5.12. Sesgo y supuestos………………………………………………………...... 84 5.13. Validación del modelo dinámico mecanístico Wakax POS en predicción de la ganancia de peso……………………...………………….. 86 5.14. Validación del modelo dinámico mecanístico Wakax POS en predicción de la materia seca, ácidos grasos volátiles, acetato, propionato y butirato en el Rumen y Ciego……..…………………………. 95 6. CONCLUSIONES……………………………………………………………………….. 106 7. BIBLIOGRAFÍA………………………………………………………………………….. 108 ANEXO I…………………………………………………………………………………….. 116 ANEXO II…………………………………………………………...……………………….. 136 IV LISTA DE CUADROS Página Cuadro 1. Promedios observados de ganancia de peso (kg) de 34 experimentos y sus correspondientes simulados con el modelo Wakax POS……..…. 86 Cuadro 2. Diferencia entre los valores observados y predichos, y la corrección por sesgo constante……….………………………………………………... 90 Cuadro 3. Valores de DM, AGVs, Ac, Pr y Bu observados y predichos con el modelo Wakax POS en el Rumen y Ciego……………...……………….. 96 Cuadro 4. Medidas descriptivas de las diferencias entre los valores observados y predichos para las DM, Ac, Pr, Bu y AGVs en el Rumen y Ciego…… 99 Cuadro 5. Valores de las estadísticas MEF y CD para las variables DM, AGVs, Ac, Pr y Bu en el Rumen y Ciego………………………………………….. 105 Anexo I Cuadro I.1. Símbolos usados en el diagrama del modelo Turix….………………... 116 Cuadro I.2. Notación y abreviaciones empleadas en el modelo Wakax POS con excepción del submodelo de Crecimiento animal…………………..…. 117 Cuadro I.3. Notación y abreviaciones empleadas en el submodelo de Crecimiento animal……………………………………………….……….. 119 Cuadro I.4. Submodelo Concentrado (Co).…………...…………………………..…. 126 Cuadro I.5. Submodelo Pasto (Pa).…..……….………………….………………..…. 128 Cuadro I.6. Submodelo Caña de azúcar (CZ).……………………………..……..…. 130 Cuadro I.7. Submodelo Melaza.………………………………………….……………. 132 Cuadro I.8. Ecuaciones descriptivas.………………………………….…………..….. 133 Cuadro I.9. Submodelo Crecimiento animal.…………………………………………. 133 Anexo II Cuadro II.1. Fuentes de los datos experimentales utilizados en la validación del modelo Wakax POS en predicción de la GPP por día………………... 136 Cuadro II.2. Datos de los animales, cantidades de los alimentos suministrados y la GPP por día observada y modelada con el modelo Wakax POS… 137 V Cuadro II.3. Fuentes e información de los datos experimentales utilizados en la validación del modelo Wakax POS en predicción en el Rumen y Ciego de DM(%), AGVs(mM), Ac(%), Pr(%) y Bu(%)…………………. 139 VI LISTA DE FIGURAS Página Figura 1. Esquematización de la exactitud contra la precisión…………………….. 9 Figura 2. Comparación de las medidas de exactitud y precisión. La línea punteada representa a la recta y=x……………………………………….. 10 Figura 3. Valores hipotéticos del error crítico e*j (j=1,2,3) para cada variable….... 47 Figura 4. Valores hipotéticos de V(Dj) o εj (j=1,2,3) para cada variable…………... 48 Figura 5. Valores hipotéticos del error crítico e *j* (j=1,2) para la variable Y por medio de los modelos 1 y 2 (M1 y M2)…………………………………… 49 Figura 6. Relación entre el sesgo (di) y los valores simulados (zi) para la GPP. d = 0.233 kg es la media de las diferencias (di)…………………………. 88 Figura 7. Dispersión de los puntos (zi, yi) para la GPP. y=z es la recta que representa la exactitud ideal.…………………………...………………….. 89 Figura 8. Relación entre los valores predichos (zi) y los observados (yi) para la GPP. y=0.2798+0.6475z es la recta de regresión ajustada. y=z es la recta de exactitud ideal…….....……………………………………………. 93 Figura 9. Dispersión de los puntos (zi, yi) para DM, Ac, Pr y Bu en el Rumen. y=z es la recta que representa la exactitud ideal……………….……... 97 Figura 10. Dispersión de los puntos (zi, yi) para AGVs(mM) en el Rumen. y=z es la recta que representa la exactitud ideal………………………………… 98 Figura 11. Relación entre el sesgo (di=yi-zi) y los valores simulados o predichos (zi) para DM, Ac, Pr y Bu en el Rumen…………………………………… 98 Figura 12. Relación entre el sesgo (di=yi-zi) y los valores simulados o predichos (zi) para AGVs(mM) en el Rumen…………………………………………. 99 Figura 13. Dispersión de los puntos (zi, yi) para DM, Ac, Pr y Bu en el Ciego. y=z es la recta que representa la exactitud ideal……………………………... 100 Figura 14. Dispersión de los puntos (zi, yi) para AGVs(mM) en el Ciego. y=z es la recta que representa la exactitud ideal………………………………… 101 Figura 15. Relación entre el sesgo (di=yi-zi) y los valores simulados o predichos (zi) para DM, Ac, Pr y Bu en el Ciego……………………………………... 101 VII Figura 16. Relación entre el sesgo (di=yi-zi) y los valores simulados o predichos (zi) para AGVs(mM) en el Ciego…………………………………………… 102 Anexo I Figura I.1. Representación esquemática del modelo Turix….……………………… 116 VIII RESUMEN Una etapa fundamental en la construcción de un modelo es su validación, la cual presenta dificultades tanto conceptuales como prácticas. En este trabajo se presentó, modificó y extendió el procedimiento de validación de modelos desarrollado por Freese (1960). El método es una alternativa inferencial para determinar si las salidas del modelo están suficientemente próximas a los valores observados del sistema real. Permite analizar datos provenientes de modelos que presenten o no sesgo en sus pronósticos sin modificar la estructura del modelo. Se establecieron los supuestos, la estadística de prueba y el error crítico para el planteamiento original y alternativo del procedimiento de Freese cuando el modelo presenta o no sesgo. Para el caso de sesgo proporcional se presenta una modificación al método. Se expone un procedimiento alternativo al de Reynolds (1984) para determinar el intervalo de confianza bilateral (ICB) para el cuantil 1-α de la distribución de |D|. Se determinaron en términos del error crítico los ICB para el cuantil 1-α de la distribución de D − D y εR , cuando el modelo presenta sesgo constante y proporcional respectivamente. Con base al error crítico se propone un método para validar un modelo en predicción de varias variables y otro para comparar dos o más modelos en predicción del mismo sistema. Para ilustrar la metodología basada en el planteamiento de Freese, se validó el modelo dinámico mecanístico Wakax POS en predicción de la ganancia de peso promedio por día de bovinos alimentados con caña de azúcar, maíz quebrado y/o melaza en una zona tropical de México. Adicionalmente se utilizaron métodos gráficos y medidas estadísticas para la validación en predicción de la materia seca (DM), ácidos grasos volátiles (AGVs), acetato (Ac), propionato (Pr) y butirato (Bu) en el Rumen y Ciego. El modelo Wakax POS puede usarse para predecir la ganancia de peso promedio por día, aunque requerirá un ajuste con base a la presencia de sesgo constante para incrementar su exactitud. El sesgo de las predicciones en el Rumen presenta mayor amplitud para los AGVs, seguido por Ac, Pr, Bu y DM. En el Ciego el sesgo tiene mayor amplitud para los AGVs, seguido por DM, Ac, Bu y Pr. A diferencia del coeficiente de determinación del modelo, la eficiencia de modelado proporciona resultados consistentes con los obtenidos de las técnicas visuales de validación. Palabras clave: Validación, modelo mecanístico, prueba ji-cuadrada de Freese, error crítico, corrección por sesgo. IX SUMMARY A fundamental stage in the construction of a model is its validation, which presents difficulties both conceptual and practical. In this work a procedure of model validation developed by Freese (1960) is presented, and subsequently the procedure is modified and extended. The method is an inferential alternative used to determine whether the outputs of the model are sufficiently close to the observed values of the real system. It allows to analyze data coming from models with or without bias, and without modifying the structure of the model. The assumptions, the test statistic and the critical error were established for the original and the alternative settings of Freese's procedure for models possessing or not possessing bias. For the case of proportional bias a modification to the method is presented. An alternative procedure to that given in Reynolds (1984) is exposed in order to construct a two-sided confidence interval (TCI) for the 1-α quantile of the distribution of |D|. TCI's were established in terms of the critical error for the 1-α quantile of the distribution of D − D and εR , when the model has constant and proportional bias, respectively. On the basis of the critical error, one method of model-validation that predicts several variables and another one for the comparison of two or more predictive models of the same system are proposed. To illustrate the methodology based on Freese's approach, the mechanistic dynamic model Wakax POS was validated for the prediction of the average weight gain per day of bovines fed with sugar cane, broken corn and/or molasses in a tropical area of Mexico. Additionally, graphical methods and statistical measures were used for the validation in prediction of dry matter (DM), volatile fatty acids (VFAs), acetate (Ac), propionate (Pr) and butirate (Bu) in Rumen and Cecum. The model Wakax POS can be used to predict the average weight gain per day, but it will require an adjustment taking into account the presence of constant bias in order to increase its accuracy. The bias of the predictions in the Rumen presents larger amplitude for the VFAs, followed by Ac, Pr, Bu and DM. In the Cecum the largest bias was attained for the VFAs, followed by DM, Ac, Bu and Pr. Contrary to the coefficient of model determination, the modeling efficiency provides consistent results with those obtained by the visual techniques of validation. Keywords: Validation, mechanistic model, Freese chi-squared test, critical error, bias correction. X 1. INTRODUCCIÓN En la construcción de un modelo se necesita tener conocimiento tanto de las partes que conforman el sistema como de las interacciones existentes entre ellas, aproximándose más el modelo a la realidad cuanto más detallado sea dicho conocimiento. En el procedimiento de ajuste de modelos mecanísticos, se asumen relaciones particulares entre las variables, llevando al modelador a aceptar alguna desviación entre los datos y el modelo para obtener un modelo que explique satisfactoriamente la situación bajo investigación (Giordano et al., 1997a). En el proceso de modelación, los modeladores generalmente admiten que una etapa fundamental es la validación de los modelos, sobre todo de aquellos que serán utilizados para propósitos de predicción. La validación se define como la comparación de las predicciones del modelo con los valores observados del sistema real para determinar si el modelo es adecuado para el propósito establecido (Mayer y Buttler, 1993; Mitchell, 1997; Oberkampf y Trucano, 2002; Montgomery et al., 2002a; Halachmi et al., 2004). Por su parte Reynolds (1984), señala que un método para determinar cuán bien se comporta un modelo es comparar las predicciones del modelo con un modelo existente o con valores observados del sistema real. Para Mayer y Buttler (1993), las técnicas de validación se pueden agrupar en cuatro principales categorías: la evaluación subjetiva, las técnicas visuales, las medidas de desviación y las pruebas estadísticas. En un buen modelo la realidad se simplifica lo suficiente para permitir los cálculos matemáticos, pero incluso así debe ser bastante exacto para permitir conclusiones valiosas respecto a la comprensión del fenómeno estudiado y a la predicción de su comportamiento en el futuro. En consecuencia, si el modelo ajusta a los datos observados, entonces dos de sus finalidades, quizás las más importantes, son comprender el fenómeno y la predicción de su comportamiento. Por lo que en el proceso de modelación matemática, la etapa de validación con datos observados diferentes a los empleados en la obtención de los parámetros del modelo, juega un papel fundamental para modelos que serán aplicados; donde las predicciones serán 1 empleadas en lugar de las mediciones del sistema real, las cuales pueden ser demasiado costosas o difíciles de obtener. Nuevos modelos son desarrollados y reportados en diferentes áreas del conocimiento para usarse en predicción y estimación. Frecuentemente, el usuario del modelo es una persona distinta de quien lo desarrolló y antes de que el modelo pase al usuario debe hacerse una evaluación de su validez. En muchos casos los nuevos modelos de simulación han sido presentados sin una adecuada validación (Reynolds, 1984; Barrales et al., 2004), o evaluación de las magnitudes de los errores que pueden resultar de su uso (Reynolds, 1984). Las posibles razones son que: (a) en la literatura científica ha habido relativamente poca discusión sobre la filosofía y procedimientos para este tipo de investigación (Reynolds, 1984), (b) para efectuar una validación los modeladores recurran a procedimientos simples, a su alcance, aparentemente adecuados, incluyendo gráficos de dispersión de predicciones y observaciones, algunas veces utilizando regresión, la cual es pensada como un método objetivo y cuantitativo para medir cuán bueno es un modelo (Mitchell, 1997), (c) se utilizan diferentes términos para referirse a la comparación de los valores predichos con los observados, y d) se tienen una gran variedad de técnicas para validar modelos en las diferentes áreas del conocimiento, en consecuencia no se cuenta con un sólo método o con un conjunto único de técnicas aceptadas por la comunidad científica. En el desarrollo de un modelo intervienen experimentadores, analistas de los datos y modeladores; y un modelo es útil cuando captura los elementos adecuados de la realidad con un grado aceptable de exactitud. En consecuencia, es importante hacer cierta evaluación de su validez que permita contar con una medida de protección, tanto para el modelador como para el usuario del modelo, cuando el modelo sea utilizado en predicción del comportamiento del sistema. En este trabajo se presentó, modificó y extendió el procedimiento estadístico inferencial de validación de modelos con o sin sesgo desarrollado por Freese (1960), y se validó el modelo dinámico mecanístico de “animal completo” Wakax POS en predicción de la ganancia de peso promedio por día, materia seca, ácidos grasos volátiles, acetato, propionato y butirato de bovinos en pastoreo suplementado con caña de azúcar, maíz quebrado y/o melaza en una zona tropical de México. 2 2. OBJETIVOS 2.1. Objetivo general Establecer la validación de modelos mecanísticos con base en la prueba jicuadrada de Freese (1960), y validar el modelo Wakax POS en predicción de la ganancia de peso promedio por día, materia seca, ácidos grasos volátiles, acetato, propionato y butirato de bovinos en pastoreo suplementado con caña de azúcar, maíz quebrado y/o melaza en una zona tropical de México. 2.2. Objetivos específicos 1. Desarrollar el método de validación para modelos mecanísticos de simulación de sistemas basado en el procedimiento de Fresse (1960). a) Establecer los supuestos, la estadística de prueba y el error crítico para la versión original y alternativa del procedimiento de Freese cuando el modelo presente o no sesgo en sus predicciones. b) Proponer un procedimiento alternativo al de Reynolds (1984), para obtener el intervalo de confianza bilateral para el cuantil 1-α de la distribución de |D|. c) Obtener en términos del error crítico, los intervalos de confianza bilateral para el cuantil 1-α de la distribución correspondiente, cuando el modelo presente sesgo constante o proporcional. d) Plantear un método para validar un modelo en predicción de varias variables. e) Plantear un procedimiento para comparar dos o más modelos de predicción del mismo sistema. 2. Aplicar el método de validación al modelo dinámico mecanístico Wakax POS en predicción de la ganancia de peso promedio por día. 3 3. Validar el modelo Wakax POS en predicción de la materia seca, ácidos grasos volátiles, acetato, propionato y butirato en el Rumen y Ciego. 4 3. REVISIÓN DE LITERATURA 3.1. Sistema y variable de estado Un sistema es un conjunto de objetos o componentes relacionados entre si de una manera regulada para formar un todo organizado (Harrington y Tumay, 2000). Se tiene un sistema dinámico cuando se consideran los flujos como variables en función del tiempo. Según Zill (2002), un sistema dinámico lo forma un conjunto de variables dependientes del tiempo, que se llaman variables de estado, más una regla que permite determinar el estado del sistema en términos de un estado especificado en cierto momento t0. El estado del sistema en un tiempo t es el valor de las variables de estado en ese instante; el estado especificado del sistema en el instante t0 es sólo el conjunto de condiciones iniciales que acompañan al modelo matemático. El valor de una variable de estado determina el estado del sistema en un punto dado en el tiempo (France y Thornley, 1984a). El modelador generalmente está interesado en entender como funciona un sistema dinámico particular, que causa los cambios en sus variables de estado y en predecir su comportamiento. 3.2. Modelo matemático Un modelo matemático es una ecuación o un conjunto de ecuaciones que representan el comportamiento de un sistema (France y Thornley, 1984b), o una construcción matemática diseñada para estudiar un sistema del mundo real o fenómeno (Giordano et al., 1997b). Los elementos estructurales básicos de un modelo son las variables, los parámetros, las constantes y las funciones o relaciones funcionales de las variables entre sí y de éstas con los parámetros. En la construcción de un modelo se necesita tener conocimiento tanto de las partes que forman el sistema como de las interacciones existentes entre ellas, aproximándose más el modelo a la realidad cuanto más detallado sea dicho conocimiento. Según Richter y Söndgerath (1990), la estimación de parámetros de un 5 modelo es un sinónimo de los procedimientos estadísticos y numéricos utilizados para obtener valores numéricos razonables de los parámetros en los modelos (valores basados en los datos observados). También según estos autores, la estimación de parámetros proporciona la conexión entre los datos y el modelo, entre estadística y simulación. Csáki (1985) señala que en la construcción de modelos matemáticos se tienen tres pasos: construcción del modelo, determinación de los parámetros (especificación del modelo) y validación del modelo. Fub et al. (2005) describen tres etapas en el proceso de modelación: Etapa de diseño del modelo. Se define y formula el modelo matemático a partir de un proceso biológico, sistema o problema bajo investigación. Esta etapa involucra decisiones en las que se debe entender el sistema, sus requerimientos y componentes, para determinar que tipo de interacciones se deberán incluir en la formulación del modelo. Etapa de análisis y aplicación del modelo. La implementación computacional del modelo es utilizada para simular y estudiar el desarrollo dinámico del modelo bajo diferentes condiciones en relación al estudio biológico del sistema o proceso. Etapa de validación del modelo. El comportamiento y los datos generados por la simulación computacional del modelo son comparados contra datos obtenidos de experimentos similares en un sistema biológico real, o valorados epistemológicamente sobre la base del conocimiento existente. Si el modelo ajusta a los datos observados entonces dos de sus finalidades, quizás las más importantes, son comprender el fenómeno y la predicción de su comportamiento. Así, en un buen modelo la realidad se simplifica lo suficiente para permitir los cálculos matemáticos, pero incluso así es bastante exacto para permitir conclusiones valiosas respecto a la comprensión del fenómeno estudiado y a la predicción de su comportamiento en el futuro. 6 3.3. Modelación empírica y mecanística A los modelos que estudian las relaciones biológicas o los mecanismos relacionados con el comportamiento del sistema, como por ejemplo el comportamiento animal, se les denominan modelos mecanísticos, estos modelos son diferentes de los modelos empíricos que describen las relaciones matemáticas entre los datos, es decir, se basan por completo en los datos experimentales que se reúnen (France y Thornley, 1984b; Box et al., 1999a; Box et al., 1999b). En los modelos mecanísticos se describe el sistema integrando las variables determinantes o causales de la dinámica del mismo y contrastan con los modelos empíricos donde lo que se realiza es una descripción matemática (con base biológica o no) de datos observados (Chilibroste, 2002). En el procedimiento de ajuste de modelos mecanísticos, se asumen relaciones particulares entre las variables, llevando al modelador a aceptar alguna desviación entre los datos y el modelo para obtener un modelo que explique satisfactoriamente la situación bajo investigación (Giordano et al., 1997a). Box et al. (1999a) señalan que un modelo empírico puede ser útil, particularmente si sólo se desea una respuesta aproximada en una región de interés en que las variables tienen rangos de valores limitados. Al enfoque general para ajustar modelos empíricos se le llama análisis de regresión. En general, suponga que se tiene una sola variable dependiente o de respuesta (y) que depende de k variables independientes, por ejemplo x1, x2,…,xk. La relación que existe entre estas variables se caracteriza por un modelo matemático llamado modelo de regresión (modelo empírico) y dicho modelo se ajusta a un conjunto de datos muestreados. Montgomery (2004a) indica que en ocasiones el experimentador conoce la forma exacta de la verdadera relación funcional entre y y x1, x2,…,xk, por ejemplo y=φ(x1, x2,…,xk), sin embargo, en la mayoría de los casos no se conoce la verdadera relación funcional, y el experimentador elige una función apropiada para aproximar φ. Para Box et al. (1999b), un modelo mecanístico resulta justificado siempre que para progresar sea esencial el conocimiento básico del sistema o cuando los conocimientos previos son suficientes para construir fácilmente un modelo mecanístico 7 útil. Estos autores también opinan que los modelos mecanísticos pueden proporcionar más comprensión científica del sistema, una mejor base para la extrapolación, y frecuentemente, una representación con menos parámetros. Una ecuación polinómica, aunque puede representar adecuadamente lo que pasa en la región de estudio, no proporciona una base sólida para extrapolar. En un modelo mecanístico lo que se extrapola es el mecanismo y no una mera curva empírica, así, incluso un modelo mecanístico debe ser preferentemente utilizado para sugerir regiones donde puede ser beneficioso desarrollar nuevas investigaciones (Box et al., 1999b). Si no contamos con la teoría física o mecanística que nos ayude a expresar un modelo, construimos un modelo empírico, el cual se basa por completo en los datos que se reúnen, generalmente usando metodología estadística, y lo que se busca es una curva que se ajuste a los datos, en el sentido que capture la tendencia básica de las observaciones muestreadas, es decir, mediante una ecuación derivada de los datos que exprese la relación entre la respuesta y los factores importantes del diseño. 3.4. Validación de modelos: conceptos y métodos 3.4.1. Conceptos Barrales et al. (2004) señalan que en la modelación de sistemas, una etapa esencial y que presenta dificultades tanto conceptuales como prácticas, es la validación de los modelos. Según Freese (1960), si la diferencia (observados-predichos) es una constante o alguna función matemática de los valores observados, el modelo es sesgado, la falta de precisión ocurre cuando el modelo es no sesgado y proporciona valores que fluctúan ampliamente alrededor de los valores reales u observados; y la inexactitud puede deberse al sesgo, a la falta de precisión o a una combinación de éstos. La exactitud se refiere a que tan cerca están los valores predichos por el modelo de los valores reales (Loague y Green, 1991; Ramakrishnan y Mountain, 2004; Tedeschi, 2006). La precisión se refiere a que tan cerca están entre ellos los valores 8 predichos por el modelo (Ramakrishnan y Mountain, 2004; Tedeschi, 2006). La precisión es el grado en que los valores predichos por el modelo se aproximan a una función lineal de los valores observados (Loague y Green, 1991). En otras palabras, la exactitud es la capacidad del modelo para predecir correctamente los valores y precisión es la capacidad del modelo para predecir valores similares consistentemente (Tedeschi, 2006). En la Figura 1 se ilustra la diferencia entre la exactitud y precisión de un modelo de simulación. El caso 1 es inexacto e impreciso, el caso 2 es inexacto y preciso, el caso 3 es exacto e impreciso y el caso 4 es exacto y preciso. En un modelo de predicción lo ideal es que cumpla que sea exacto y preciso (caso 4). Fuente: Tedeschi (2006) Figura 1. Esquematización de la exactitud contra la precisión. Tedeschi (2006), indica que en el análisis de regresión lineal simple de los valores observados (eje Y) sobre los valores predichos (eje X), el coeficiente de determinación (r2) es buen indicador de precisión (un valor alto de r2 precisión alta), y que los parámetros estimados del intercepto y la pendiente son buenos indicadores de exactitud, así, cuando son simultáneamente cercanos a cero y a uno respectivamente, 9 la exactitud es más alta. En la Figura 2 se comparan las medidas de precisión y exactitud de un modelo a través del coeficiente de determinación y de los parámetros estimados del modelo de regresión. El caso 1 es inexacto e impreciso, el caso 2 es inexacto y preciso, el caso 3 es exacto e impreciso, y el caso 4 es exacto y preciso. En un modelo de predicción lo ideal es que cumpla el caso 4. Fuente: Tedeschi (2006) Figura 2. Comparación de las medidas de exactitud y precisión. La línea punteada representa a la recta y=x. Oberkampf y Trucano (2002) diferencian verificación y validación: (i) la verificación es la valoración de la exactitud de la solución de un modelo computacional por comparación con soluciones conocidas, su estrategia fundamental es la identificación y cuantificación del error en el modelo computacional y su solución; es principalmente una cuestión matemática, y (ii) la validación es la valoración de la exactitud de la simulación computacional por comparación con datos experimentales, su estrategia fundamental es calcular la exactitud de los resultados computacionales al 10 ser comparados con datos experimentales y estimar el error generado por ambos; es principalmente una cuestión física. Oreskes et al. (1994) discuten la confusión de los conceptos de verificación, validación, confirmación y calibración de modelos. Indican que los conceptos de validación o verificación son criticados porque es filosóficamente imposible probar que todos los componentes del modelo del sistema real son verídicos o correctos. Determinar si el comportamiento de un modelo iguala suficientemente bien el comportamiento del sistema, siempre ha sido un asunto de gran interés y señalado en muchos documentos durante muchos años (Beck, 2002). La frase contemporánea empleada para resolver esta cuestión es “evaluación” (Oreskes, 1998). Según Beck (2002), las preguntas fundamentales a contestar en la evaluación de un modelo son: (1) ¿El modelo ha sido construido de materiales aprobados, es decir, las hipótesis que lo constituyen son aprobados (en términos científicos)?, (2) ¿Su comportamiento se aproxima bien a lo observado en el sistema real?, y (3) ¿Funciona, es decir, cumple con su tarea indicada, o sirve a su propósito establecido?. Por su parte Tedeschi (2006), señala que la evaluación del modelo consiste en determinar si el modelo es una representación adecuada del proceso para el que fue diseñado antes que el establecimiento en cualquier sentido de la verdad del modelo, y que un modelo matemático no puede ser probado si es válido, solamente si éste es apropiado para su propósito establecido con las condiciones dadas. Para Mayer y Buttler (1993) la validación es un paso necesario para la aceptación de un modelo, y se define como la comparación de las predicciones del modelo con los valores observados del mundo real para determinar si el modelo es adecuado para el propósito establecido. Según Mitchell (1997), la validación de modelos consiste en comprobar la estructura del modelo o si sus salidas están suficientemente próximas a los valores observados del sistema real; el énfasis sobre la estructura del modelo o de las salidas depende si el modelo es principalmente para explorar el mecanismo o funcionamiento del sistema e incrementar su comprensión, o si las predicciones obtenidas remplazarán las observaciones del sistema real, las cuales pueden ser demasiado costosas o difíciles de obtener. Para este autor, la comparación de las predicciones del modelo con 11 observaciones del mundo real, junto con una evaluación del comportamiento del modelo, es la validación empírica. En el contexto de los modelos empíricos, Montgomery et al. (2002a) señalan que la comprobación de la adecuación del modelo incluye análisis internos que investigan el ajuste de un modelo de regresión a los datos disponibles y que la validación del modelo se concentra en la determinación de si el modelo funcionará bien en su ambiente pretendido de operación, por ejemplo, si el modelo se empleará para pronosticar nuevas observaciones, la validación se debe concentrar en la determinación de la exactitud del modelo. Mitchell (1997), coincide en que la validación debe demostrarle al usuario del modelo, que el modelo es adecuado para el propósito de su desarrollo. Para Halachmi et al. (2004), la validación determina si el modelo matemático es una representación exacta del sistema real, y una forma de validación es comparando los datos reales con los predichos del sistema. Hamilton (1991) recopiló una extensa lista de publicaciones (316) con respecto a la validación de modelos con énfasis en artículos de potencial interés para estadísticos, e incluye para cada una un breve comentario acerca de que tratan y sus palabras clave. Menciona que la validación es la valoración del alcance para la cual un modelo es fundamentado o racional y de que cumple el propósito para el cual fue construido. Esta comprende tres tareas: 1) la verificación, la cual incluye el diseño, programación y la revisión de los procesos en el programa de cómputo, 2) el análisis de sensibilidad, que es la determinación del comportamiento del modelo por cambios en sus parámetros (comportamiento de cada componente del modelo), y 3) la evaluación, que consiste en la comparación de las salidas del modelo con datos reales. 3.4.2. Métodos para la validación de modelos Para Mayer y Buttler (1993), las técnicas de validación se pueden agrupar en cuatro principales categorías: la evaluación subjetiva (involucra a un número de expertos en el campo de interés), las técnicas visuales (gráficas comparativas), las medidas de desviación (basadas en las diferencias entre valores observados y 12 simulados) y las pruebas estadísticas. Proponen la eficiencia de modelado (EF) como la mejor medida de concordancia entre los valores observados y los simulados. Freese (1960) presenta un método de tres pasos para comparar los valores pronosticados y observados: i) establecer la exactitud requerida por el modelador o usuario del modelo, ii) cuantificar la exactitud alcanzada por el modelo, y iii) aplicar una prueba estadística para decidir si el modelo cumple con la exactitud requerida. Dicho método se explicará en detalle en el capítulo de materiales y métodos. Reynolds (1984) señala que un método para determinar cuán bien se comporta un modelo es comparar las predicciones del modelo con un modelo existente o con valores observados del sistema real. También, señala que la información acerca de la capacidad predictiva del modelo puede obtenerse por comparación de los valores observados y predichos en diferentes ensayos del modelo. Para cuantificar la concordancia entre las observaciones y las predicciones, Reckhow et al. (1990) utiliza y discute la prueba t, la prueba de Wilcoxon, el análisis de regresión y la prueba de Kolmogorov-Smirnov para dos muestras. Mitchell (1997) señala que muchos libros sobre modelación dan una pequeña guía sobre la validación empírica, y que no es sorprendente que para efectuar la validación, los modeladores recurran a procedimientos simples a su alcance, aparentemente adecuados, incluyendo gráficos de dispersión de predicciones y observaciones, algunas veces utilizando regresión, la cual es pensada como un método objetivo y cuantitativo para medir cuán bueno es un modelo. Propuso un método que no requiere de los supuestos necesarios de los métodos estadísticos, en donde se grafica en el eje de las abscisas los valores predichos y en el eje de las ordenadas las desviaciones (predicho menos observado) y el porcentaje de puntos que caen dentro de un rango o precisión aceptable con centro en cero, es usado como un criterio de adecuación del modelo. El rango de aceptación lo establece el modelador de acuerdo a su criterio y propósitos. Analla (1998) propone el cuadrado medio del error (CME) de la regresión de los valores observados (Y) sobre los predichos (Z) para efectuar una validación, así como para comparar dos o más modelos en predicción del sistema. Por su parte Kobayashi y 13 Salam (2000) proponen la media de las desviaciones al cuadrado (MSD) y sus componentes para validar modelos y para comparar dos o más modelos. Chilibroste (2002) utiliza la raíz del cuadrado medio del error (MSPE) para evaluar modelos (comparación entre valores observados y predichos). Considera que un valor aceptable de la MSPE es que se encuentre en torno al 10% de la media observada. Según Hayirli et al. (2003) la validación de modelos se efectúa en tres fases: la primera es la significancia de los coeficientes de regresión de los modelos ajustados, la segunda es la regresión entre los valores predichos y los actuales, y la tercera son pruebas t para determinar si el sesgo (B; predichos-actuales) es diferente de cero, si el intercepto es diferente de cero y si la pendiente es diferente de uno. También usan el coeficiente de correlación entre los valores predichos y actuales para determinar la exactitud de la predicción e indicar la cercanía de dichos valores; y para medir exactitud y precisión emplean el error de predicción relativa (RPE) y la media del cuadrado de los errores de predicción (MSPE). Halachmi et al. (2004) indican que el modelo será valido si y solo si los valores reales y predichos tienen: (i) medias iguales, (ii) varianzas iguales, y (iii) correlación positiva entre los valores reales y las respuestas del modelo. Collao-Saenz et al. (2005) utilizan la media del cuadrado de los errores de predicción (MSPE) para evaluar los resultados predichos (comparación entre valores observados y predichos). Tedeschi (2006) discute y compara varias técnicas para evaluar modelos matemáticos diseñados para propósitos predictivos. En su revisión expone las siguientes técnicas: análisis de regresión lineal, análisis de los errores ajustados, coeficiente de correlación de concordancia, diversas medidas para evaluación, el error cuadrado medio de predicción, análisis no paramétricos y la comparación de la distribución de los datos. En la práctica es común que para validar modelos en predicción del sistema se utilice la regresión lineal (RL) entre la variable dependiente Y (observados) y la variable independiente Z (predichos) (Reckhow et al., 1990; Flavelle, 1992; Mayer y Butler, 1993; Mayer et al., 1994; Analla, 1998; Yang et al., 2000; Hayirli et al., 2003; Tedeschi, 14 2006), así como diferentes medidas estadísticas para comparar a Y y Z (Loague y Green, 1991; Mayer y Butler, 1993; Analla, 1998; Kobayashi y Salam, 2000; Yang et al., 2000; Chilibroste, 2002; Collao-Saenz et al., 2005; Tedeschi, 2006). Los resultados de la RL que en general se incluyen son: (i) el gráfico de dispersión de los valores predichos (zi) vs. los observados (yi), junto con la recta de regresión estimada y la recta y=z, la cual permite visualizar que tan alejados están los puntos de la recta y=z que representa la exactitud ideal, (ii) el coeficiente de determinación como indicador de precisión, y (iii) los parámetros estimados del intercepto y la pendiente como indicadores de exactitud y las pruebas estadísticas acerca de si son simultáneamente cercanos a cero y a uno respectivamente. Frecuentemente la validación de modelos en predicción del sistema es realizado mediante la prueba F simultánea de intercepto cero y pendiente uno. En cuanto a la discusión acerca de si es apropiada para efectuar validación, Harrison (1990) señala que sesgo en los parámetros estimados puede conducir al rechazo de modelos “válidos” y concluye que no es apropiada. Posteriormente Mayer et al. (1994), concluye que es apropiada excepto cuando los errores están autocorrelacionados. Por su parte Analla (1998), concluye que no es apropiada ya que la significancia de esta prueba es inversamente proporcional a la bondad del ajuste del modelo evaluado. En su lugar propone el cuadrado medio del error (CME) de la regresión del modelo o modelos a validar. Otra prueba estadística que ha sido cuestionada para efectuar validación es la prueba de t para muestras dependientes u observaciones pareadas entre los valores observados y los predichos (Freese, 1960; Reynolds et al., 1981; Harrison, 1990; Mitchell, 1997). Por su parte Mayer et al. (1994), señalan que la prueba de t y la prueba de Wilcoxon no pueden ser recomendadas para propósitos de validación. Respecto a las técnicas o medidas estadísticas basadas en la RL para efectuar validación, Mitchell (1997) señala que es pensada como un método objetivo y cuantitativo para medir cuán bueno es un modelo. Lo anterior puede atribuirse a que la RL es relativamente sencilla de aplicar y prácticamente todos los paquetes estadísticos comerciales lo incluyen entre sus opciones. Algunas desventajas en la aplicación de la RL y que se presentan frecuentemente en la práctica son: (i) que sea aplicable, es 15 decir, que los puntos (zi, yi) tengan cierta tendencia lineal, (ii) garantizar el cumplimiento de que los errores son independientes y provengan de una distribución normal con media cero y varianza constante, y (iii) su aplicación cuando el tamaño de muestra es muy pequeño o cuando los datos se encuentran concentrados en una pequeña región, la cual no permitiría visualizar si tienen una tendencia lineal. En consecuencia es pertinente tener un rango amplio y creciente de los valores observados yi para poder visualizar si los puntos (zi, yi) efectivamente siguen una tendencia lineal. Reckhow et al. (1990) discute el cumplimiento de los supuestos de la regresión. Para Harrison (1990), la regresión no debe usarse para validación por las dificultades para satisfacer los supuestos y la ambigüedad cuando no se rechaza la hipótesis nula. Flavelle (1992) discute las ventajas y limitaciones del uso de la regresión para validación. Por su parte Mitchell (1997), da cinco argumentos en contra de la regresión y la considera inapropiada para efectuar validación. Kobayashi y Salam (2000) indican que no es garantía el supuesto de que Y se relacione linealmente con Z y que es innecesario para comparar a Y y Z. Montgomery et al. (2002c) señalan varios abusos comunes en la aplicación de la regresión. Para Mayer y Butler (1993) la complejidad de los modelos y del tipo de datos, origina que no haya un conjunto combinado de técnicas de validación aplicable en todas las situaciones de modelación, y señalan que en la mayoría de los casos, un número de medidas de validación son necesarias para apreciar “la foto completa”. Por su parte Tedeschi (2006), indica que la valoración de la adecuación de un modelo solamente es posible por medio de una combinación de varios análisis estadísticos y propios al propósito para la cual el modelo matemático fue inicialmente conceptualizado y desarrollado. Para Barrales et al. (2004), los índices o medidas para efectuar validación no presentan el carácter objetivo que se demanda de las pruebas o métodos estadísticos en el sentido que para un mismo conjunto de datos, todos los modeladores, usando el mismo procedimiento, lleguen a las mismas conclusiones. 16 3.5. Pruebas para el supuesto de normalidad Una gran variedad de métodos estadísticos suponen normalidad para poder utilizarlos, por lo que existen variados métodos gráficos e inferenciales para verificarlo. Estos métodos (pruebas de bondad de ajuste), comprueban si los datos que se observan concuerdan en efecto con el modelo probabilístico de la distribución normal que se ha supuesto para esos datos. El problema de bondad de ajuste es como sigue: dada una muestra aleatoria d1,d2,…,dn de la variable aleatoria D se quiere probar H0: D tiene función de distribución FD (d) , o bien, la muestra proviene de una población con función de distribución FD (d) . La H1 es que FD (d) no es la función de distribución verdadera de D. La prueba clásica es la prueba ji-cuadrada de bondad de ajuste. En las pruebas de bondad de ajuste para el supuesto D~ N(µD , σD2 ) , se presentan las siguientes situaciones para la función de distribución normal FD (d) : (i) µD y σD2 son completamente especificados y (ii) µD y/o σD2 deben ser estimados. Stephens (1974), analizó cinco de las principales estadísticas de pruebas de bondad de ajuste basadas en la función de distribución empírica [KS (KolmogorovSmirnov), W2 (Cramér-von Mises), V (Kuiper), U2 (Watson) y A2 (Anderson-Darling)] y tres situaciones importantes: la distribución hipotetizada FD (d) es completamente especificada y la FD (d) representa la distribución normal o exponencial con uno o más parámetros que son estimados de los datos. Indica que las pruebas de Cramér-von Mises y de Anderson-Darling son: (a) más potentes que la prueba de KolmogorovSmirnov cuando FD (d) es la distribución normal con µD y σD2 estimados por d y sn2−1 respectivamente, y (b) en general son consideradas como dos de las mejores pruebas de bondad de ajuste, esto también es señalado por Reynolds (1984). En Stephens (1974) se dan los valores críticos para las cinco pruebas bajo las tres situaciones mencionadas anteriormente. Conover (1980) señala que la prueba para normalidad de Shapiro-Wilk ( µD y σD2 estimados) es más potente que muchas pruebas para la hipótesis compuesta de 17 normalidad, incluyendo la prueba de Lilliefors ( µD y σD2 estimados) y la prueba jicuadrada. Una prueba de bondad de ajuste para normalidad basada en el gráfico de probabilidad normal (gráfico Q-Q) se presenta en Johnson y Wichern (2002), y es llamada la prueba de normalidad del coeficiente de correlación del gráfico Q-Q. Indican al igual que Filliben (1975) que tiene buena propiedad de potencia. Dicha prueba es para el caso en donde la media y la varianza de la distribución normal hipotetizada son estimados. 3.6. Transformaciones de datos Cuando la variable de estudio no se distribuye normal, generalmente se emplea algún tipo de transformación para aproximar los datos a la distribución normal y el método estadístico se aplica a la variable transformada. Montgomery (2004c) señala que las transformaciones se usan para tres propósitos: estabilizar la varianza de la respuesta, hacer que la distribución de la variable de respuesta esté más cerca de la distribución normal y mejorar el ajuste del modelo a los datos. Las transformaciones más comunes para lograr la normalidad y/o la homogeneidad de varianzas son la raíz cuadrada, la logarítmica y la angular o transformación arco seno (Steel y Torrie, 1988; Zar, 1999; Sokal y Rohlf, 2000; Montgomery, 2004b). En las tres primeras referencias citadas, se discute en detalle bajo que condiciones se recomienda utilizar cada una de las transformaciones mencionadas. Una clase útil de transformaciones es la de la transformación de potencia yλ (método de Box-Cox) para corregir la no normalidad y/o la varianza no constante en modelos de regresión y análisis de varianza (Montgomery, et al., 2002b; Montgomery, 2004c). Johnson y Wichern (2002), indican que cuando la elección de la transformación que aproxime a la distribución normal no es obvia, es conveniente que los datos sugieran una transformación, y esto puede lograrse con la familia de transformaciones de potencia (yλ). También, presentan un método analítico relativamente práctico para elegir la transformación de potencia. 18 Una transformación es simplemente una reexpresión de los datos en diferente unidad de medida. Cuando no hay una transformación obvia, generalmente se realiza una búsqueda empírica de una transformación que aproxime a la distribución normal a través de observar el efecto de cada una de las transformaciones, por ejemplo, en el gráfico de probabilidad normal. 19 4. MATERIALES Y MÉTODOS 4.1. Descripción del modelo mecanístico Wakax POS El modelo dinámico mecanístico de “animal completo” Wakax POS (inédito), fue desarrollado por el Dr. Luís Vargas Villamil del Colegio de Postgraduados campus Tabasco en una estancia posdoctoral en el Departamento de Ciencia Animal de la Universidad de California, Davis (UCD). En la construcción del modelo Wakax POS la representación del sistema es en términos de variables de estado y de tasas de cambio las cuales se especifican por medio de ecuaciones diferenciales de primer orden. Las ventajas en su desarrollo son: el sistema completo se separa en sus partes fundamentales, se representan los flujos de entradas y salidas entre sus partes, y sobre todo se establecen las relaciones dentro y entre sus partes por los mecanismos o teoría física que las gobiernan. El modelo Wakax POS fue desarrollado para describir las relaciones biológicas (digestión, crecimiento bacteriano, fermentación y absorción) durante la nutrición de bovinos alimentados con caña de azúcar (CZ) y para predecir la ganancia de peso promedio (GPP) por día de bovinos en pastoreo suplementado con CZ, maíz quebrado y/o melaza en una zona tropical de México. El modelo esta compuesto por 119 variables de estado que describen el sistema compuesto por cinco submodelos: Concentrado, Pasto, Caña de azúcar, Melaza y Crecimiento animal (Anexos I.B y I.C). Los tres primeros están divididos en tres secciones: Rumen, Intestino y Digestión en Ciego. Cada sección fue derivada de un modelo de crecimiento bacteriano, previamente publicado, llamado Turix (Vargas-Villamil et al., 2004) y cuya descripción puede consultarse en el Anexo I.A. El submodelo de Melaza describe la ración o entrada de melaza. Finalmente el submodelo de Crecimiento animal proporciona la ganancia de peso. Las variables de entrada del modelo Wakax POS son: a) peso vivo; b) consumo de materia seca de maíz, melaza y pasto; c) fracción soluble de pasto y CZ; d) fracción degradable de pasto y CZ; y e) razón de degradación de pasto y CZ. El submodelo Concentrado describe el sistema de nutrimento de materia seca de maíz y es descrito por 34 variables de estado. El submodelo Pasto describe el sistema 20 de nutrimento de materia seca de pasto y es descrito por 40 variables de estado. El submodelo Caña de azúcar describe el sistema de nutrimento de materia seca de CZ y melaza, y es descrito por 40 variables de estado. El submodelo Melaza describe la entrada de melaza y el flujo dentro del submodelo de Caña de azúcar y es descrito por una variable de estado. El submodelo Crecimiento animal proporciona la salida de GPP por día y es descrito por cuatro variables de estado. Las constantes y parámetros involucrados en los submodelos (Anexo I.C) son valores tomados, calculados, ajustados o aproximados de la literatura científica. Las secciones de los submodelos describen los procesos de digestión, crecimiento bacteriano, fermentación, absorción, y los flujos en el Rumen-Reticulo (Sección Rumen, R) y en el Ciego (Sección Ciego, C); así como la digestión, absorción y flujo en el omaso, abomaso e intestino delgado (Sección Intestino, D). 4.2. Descripción de los datos experimentales empleados en la validación El método de validación basado en el planteamiento de Freese se aplicó a la diferencia entre los datos experimentales de la GPP por día y los simulados con el modelo Wakax POS. Los valores de la GPP corresponden a las medias de los experimentos obtenidos de la literatura (Anexo II, Cuadros: II.1 y II.2) con bovinos en pastoreo suplementado con caña de azúcar, maíz quebrado y/o melaza en una zona tropical de México. En el Cuadro II.3 del Anexo II se indican las fuentes e información de los datos experimentales utilizados en la validación del modelo Wakax POS en predicción en el Rumen y Ciego de la materia seca (DM), ácidos grasos volátiles (AGVs), acetato (Ac), propionato (Pr) y butirato (Bu). En el Cuadro 3 se muestran los valores observados y predichos para cada una de dichas variables en el Rumen y Ciego. En este caso la validación se efectúo por medio de métodos gráficos y medidas estadísticas para comparar a los valores observados y predichos. Los datos experimentales utilizados en la validación del modelo Wakax POS en predicción de la GPP, DM, AGVs, Ac, Pr y Bu fueron distintos a los empleados en el ajuste de sus parámetros. 21 4.3. Procedimientos estadísticos para la validación de modelos basados en el planteamiento de Freese En este trabajo se considera: (i) La validación de un modelo en predicción del sistema, como la comparación por medio de algún método de las predicciones del modelo con observaciones del sistema real para determinar su capacidad predictiva, es decir, la validación se concentra en la determinación de la exactitud del modelo. (ii) La evaluación de un modelo, como un procedimiento más general y que incluye la validación del modelo en predicción del sistema. La evaluación de un modelo comprende: el estudio de su estructura, el proceso de ajuste de sus parámetros, el análisis de sensibilidad de sus componentes, la comparación de las salidas del modelo con observaciones del sistema real y si funciona para su propósito en diferentes escenarios. En esta sección se presentan procedimientos estadísticos basados en el planteamiento de Freese (1960) para determinar si la exactitud de un modelo o técnica de estimación es adecuada para cumplir los requerimientos del modelador o usuario del modelo. Básicamente el planteamiento de Freese para comparar los valores pronosticados y observados consiste de tres pasos: establecer la exactitud requerida por el modelador o usuario del modelo, cuantificar la exactitud alcanzada por el modelo, y finalmente aplicar una prueba estadística para decidir si el modelo cumple con la exactitud requerida. En los procedimientos presentados se detallan desarrollos omitidos por Freese (1960), Rennie y Wiant (1978), Reynolds (1984) y Barrales et al. (2004), y se incorporan modificaciones y extensiones a sus planteamientos. En el capítulo de resultados y discusión, donde se resumirán los métodos de validación se indicarán cuales son las modificaciones y extensiones incorporadas. 22 4.3.1. Conceptos básicos Dos de los objetivos, quizás los más importantes en la construcción de un modelo, son la comprensión y predicción del sistema usando la información contenida en los valores de las variables de entrada al modelo. Frecuentemente en modelos dinámicos mecanísticos conformados por muchas variables de estado, el interés se centra en alguna de ellas sin descuidar el comportamiento de las restantes ya que juntas proporcionan información del sistema. Sea el caso de predecir el valor de alguna variable de estado. Siguiendo la notación de Reynolds (1984), sea Y el valor actual u observado de la variable a predecir, sea el vector X = ( X1, X2 ,..., Xp ) correspondiente a las p variables de entrada al − modelo y sea Z=Z( X ) el valor predicho por el modelo basado en X . Suponga que se − − tienen n pares para comparar (Yi, Zi) i=1,2,…,n donde para el i-ésimo par, Yi es el valor observado, Zi el valor predicho y X i = ( Xi1, Xi2 ,..., Xip ) los valores de las variables de − entrada. A menos que el modelo matemático sea considerado estocástico (o probabilístico) los valores predichos o simulados Zi son fijos (determinísticos). Así, los valores observados de alguna variable de estado fueron considerados aleatorios ya que contienen una variabilidad natural, y los valores predichos fueron considerados determinísticos. Freese (1960), plantea para la comparación de Yi y Zi que el valor observado Yi o µi en su notación, es una constante y que Zi o Xi en su notación se distribuye normal con media µi. Las inferencias para determinar cuán bien el modelo predice el sistema real fueron basadas en las n diferencias Di=Yi–Zi para i=1, 2,…,n. Si Y1, Y2,…,Yn es una muestra aleatoria de N(Zi, σ2), es decir, si las n variables aleatorias Yi son independientes normalmente distribuidas con media Zi y varianza σ2 [Yi~NI(Zi, σ2) i=1,2,…,n] entonces Di=(Yi–Zi)~NI(0,σ2), ya que FDi (di ) = P(Di ≤ di ) = P( Yi − Zi ≤ di ) = P( Yi ≤ di + Zi ) = FYi (di + Zi ) 23 fDi (di ) = [ ] [ ] d d d FDi (di ) = FYi (di + Zi ) = fYi (di + Zi ) (di + Zi ) = fYi (di + Zi ) di di di 1 1 − 2 ( di + Z i − Z i ) − 2 ( di ) 1 1 fDi (di ) = e 2σ e 2σ I( −∞, ∞ ) (di ) = σ 2π σ 2π 2 2 por lo que Di=(Yi–Zi)~NI(0,σ2) (1) Si Di~NI(0,σ2) entonces la estandarización de Di es Di − 0 Di ~NI(0,1) = σ σ (2) [Ver sección 3.2 pp. 103-104 de Casella y Berger (1990)]. Si Di ~NI(0,1) entonces: σ 2 ⎛D ⎞ a) ⎜ i ⎟ ~ χ12 ⎝σ⎠ (3) [Ver ejemplo 6 capítulo V de Mood et al. (1974a)]. 2 ⎛D ⎞ b) ∑ ⎜ i ⎟ ~ χn2 i =1 ⎝ σ ⎠ n (3a) [Ver Teorema 7 capítulo VI de Mood et al. (1974b)]. n Freese (1960), señala que ∑ (X − µ ) i =1 i 2 i σ2 2 ⎛ X − µi ⎞ 2 2 = ∑⎜ i ⎟ ~ χn con Xi~N(µi,σ ). Ahora, σ ⎠ i =1 ⎝ n si se pide que µi~N(Xi, σ2) entonces Di=(µi–Xi)~N(0,σ2) y µ i − Xi ~N(0, 1) por lo que σ (4) 2 2 2 n n ⎛ µ i − Xi ⎞ ⎛ Xi − µ i ⎞ ⎛ Di ⎞ 2 = = ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ~ χn . ∑ ∑ ∑ σ ⎠ σ ⎠ i =1 ⎝ i =1 ⎝ i =1 ⎝ σ ⎠ n De (1) y (4) el supuesto de normalidad se cumple para las diferencias, es decir, las n diferencias D1, D2,…, Dn constituyen una muestra aleatoria de la distribución normal con media cero [E(D)=0] y varianza σD2 =Var(D) donde D=Y-Z. Cabe señalar que en los desarrollos anteriores el supuesto de normalidad se pide para los valores observados a diferencia de lo que exponen Freese (1960), Rennie y Wiant (1978) y Barrales et al. (2004); aunque al trasladarse dicho supuesto a la 24 población de las diferencias entre los valores observados y predichos, los resultados son básicamente los mismos. 4.3.2. Validación de modelos basada en el valor absoluto del error en ausencia de sesgo En el planteamiento de Freese (1960), para la determinación de la exactitud requerida se necesita que los valores e y α especificados por el modelador o usuario del modelo satisfagan P (D ≤ e ) ≥ 1 − α (5) ⇔ P (D > e ) ≤ α para que la exactitud del modelo sea aceptable. Así, un modelo es considerado suficientemente confiable para predicción si la probabilidad (exactitud) establecida en (5) se cumple, donde D es la diferencia (error) entre las observaciones y predicciones de la variable de respuesta del modelo a validar, e es el máximo error admitido y 1-α represente el nivel de exactitud requerida. Si α es pequeño entonces la diferencia entre el valor observado y el predicho sería menor que e con alta probabilidad. Barrales et al. (2004), señalan que el valor e (E en su notación) es la discrepancia aceptada entre la predicción zi y el valor real yi, es decir, el valor máximo admisible de las desviaciones |yi–zi|=|di|. Los siguientes resultados ayudaran al planteamiento de pruebas de hipótesis e intervalos de confianza, con la finalidad de decidir si el modelo cumple con la exactitud requerida por el modelador o usuario del modelo. 2 ⎛D⎞ D D D2 ⎜⎜ ⎟⎟ = 2 ~ χ12 . Por lo que el Si D~N(0, σ ) por (2) = ~N(0,1) y por (3) σD σD σD2 ⎝ σD ⎠ 2 D cuantil 1-α de la distribución ji-cuadrada con 1 grado de libertad (g.l.), χ12,1−α , es tal que ⎞ ⎛ D2 P⎜⎜ 2 ≤ χ12,1− α ⎟⎟ = 1 − α ⎠ ⎝ σD (6) De (5) se tiene que P (D ≤ e ) ≥ 1 − α 25 ( ) 2 P D ≤ e2 ≥ 1 − α ( ) P D2 ≤ e 2 ≥ 1 − α ⎛ D2 e 2 ⎞ P⎜⎜ 2 ≤ 2 ⎟⎟ ≥ 1 − α ⎝ σD σD ⎠ (7) Por lo tanto de (6) y (7) se tiene que e2 ≥ χ12,1− α 2 σD (8) La igualdad en (8) se tiene cuando la probabilidad asociada en (7) es igual a 1-α. Ahora se probará que χ12,1− α = z2 α 1− 2 donde z α 1− 2 es el cuantil 1 − α 2 de la ⎞ ⎛ α distribución normal estándar, es decir, la P⎜⎜ Z ≤ z α ⎟⎟ = 1 − . Para ello note que 1− 2 2 ⎠ ⎝ ( ) ( P(χ ) P χ12 ≤ χ12,1− α = P Z 2 ≤ χ12,1− α = 1 − α , así 2 1 ) ( ≤ χ12,1− α = P Z 2 ≤ χ12,1− α ( = P(Z ≤ = P(− χ 2 ) = P Z ≤ χ12,1− α χ12,1− α 2 1,1− α ( ) entonces P Z ≤ χ12,1− α = 1 − ) ) ) ≤ Z ≤ χ12,1− α = 1 − α ⎛ ⎞ α α y por P⎜⎜ Z ≤ z α ⎟⎟ = 1 − se sigue que − 1 2 2 2 ⎠ ⎝ decir, χ12,1− α = z2 1− (9) α 2 Así, el resultado (8) puede escribirse también como 1 σD2 ≤ 2 2 e z α 1− 2 26 e2 ≥ z 2 α , o bien, 2 1− σD 2 χ12,1− α = z 1− α 2 , es σD2 ≤ e2 e2 = z 2 α χ12,1− α 1− (10) 2 la cual corresponde a la forma dada por Freese en su notación Var(D)=σ2 y z 2 α 1− 2 = τ2 . Por lo tanto, si D~N(0, σD2 ) donde µD = 0 significa predicción insesgada y σD2 denota la varianza de los errores de predicción (precisión), entonces la técnica o modelo será aceptable o suficientemente confiable para predicción cuando se cumpla (10). Así, los valores e y α especificados por el modelador o usuario del modelo son tales que satisfacen la exactitud requerida P(D ≤ e ) ≥ 1 − α que se traduce en σD2 ≤ la varianza de las diferencias tendrá como cota superior a e2 χ12,1− α e2 , o sea, χ12,1− α cuando la exactitud requerida se satisfaga. 4.3.2.1. Pruebas estadísticas para la exactitud requerida Hasta ahora se ha determinado que si D~N(0, σD2 ) y P(D ≤ e ) ≥ 1 − α entonces la e2 para que el modelo sea considerado aceptable o Var(D)= σ debe satisfacer σ ≤ 2 χ1,1− α 2 D 2 D suficientemente confiable para predicción. El siguiente paso es probar la hipótesis: e2 H0: σ ≤ 2 χ1,1− α 2 D e2 H1: σ > 2 χ1,1− α 2 D vs. (11) Reynolds (1984), señala que bajo los supuestos D~N(0, σ ) con σ 2 D ⎛ D la estadística de prueba es ∑ ⎜ i ⎜ i =1 ⎝ σD 0 n 2 D0 e2 = 2 entonces χ1,1− α 2 2 n ⎞ ⎟ = ∑ Di ~ χn2 y que la H0 será rechazada con un 2 ⎟ i =1 σD 0 ⎠ nivel de significación α’ si la estadística de prueba (12) excede a χn2,1− α ' . La distribución de Di2 se determinó en páginas anteriores y puede consultarse en el resultado (3a). ∑ 2 i =1 σ D n 27 Bajo los supuestos anteriormente señalados la estadística de prueba puede escribirse como n V=∑ i =1 n χ12,1− α n 2 Di2 Di2 = = D ~ χn2 ∑ 2 2 ∑ i i 1 = e σD2 0 e i =1 χ12,1− α (12) y la H0 se rechazará con un nivel de significación α’ si Vc > χn2,1− α ' donde Vc es el valor de la estadística de prueba V que se obtendría al usar la información contenida en la muestra d1,d2,…,dn y los valores e y α especificados por el modelador o usuario del modelo. En la sección 4.2 pp. 431-432 del capítulo IX de Mood et al. (1974c) se puede consultar la obtención de la prueba uniformemente más potente de tamaño α [UMP(α)] de H0: σ2 ≤ σ02 vs. H1: σ2 > σ02 cuando se tiene una muestra aleatoria de tamaño n de una distribución normal con media µ conocida y varianza σ2. Cuando µ es desconocida se trata de una prueba de razón de verosimilitudes generalizada de tamaño α. La prueba ( Vc > χn2,1− α ' ) especificada para las hipótesis en (11) corresponde a la prueba UMP(α’) ya que D~N(0, σD2 ), es decir, E(D)=µD=0 es conocida (supuesta). Freese (1960), señala que el valor de σD2 (exactitud requerida) lo establece previamente el usuario y que la hipótesis H0, que no expuso explícitamente, puede rechazarse cuando el valor esperado de Xi no es µi, es decir, E(D)≠0 (sesgo) o cuando la varianza no es σD2 como se hipotetizó o por una combinación de ambas razones. Reynolds (1984), coincide con Freese al indicar que esta prueba tenderá a rechazar H0 si σD2 es grande o si |E(D)| es grande, o si ambas son grandes de modo que es sensible a éstas dos cantidades que afectan la exactitud. Así, si H0 no se rechaza entonces se asume que el modelo es adecuado bajo los valores e, α y α’ especificados por el modelador o usuario del modelo, es decir, el modelo proporciona la exactitud requerida y se estaría tentado a concluir con un nivel de significación α’ que H0: σD2 ≤ e2 se χ12,1− α cumple, o bien, que P(D ≤ e ) ≥ 1 − α . Aunque cabe la posibilidad de que H0 sea falsa (error tipo II) y se tendría que calcular la potencia de la prueba [η(.)] para un valor de H1 de importancia particular que sea considerado de significado práctico, digamos σD2 1 tal 28 que σD2 1 > e2 χ12,1− α y determinar η( σD2 1 )=1-P(Error tipo II)=1-β para decidir si H0 es verdadera cuando realmente es σD2 1 . Es decir, la probabilidad β de un error de tipo II tendría que calcularse para este valor alternativo. Si β es suficientemente “pequeño” [η( σD2 1 ) grande] se aceptaría H0 y se haría conociendo exactamente el riesgo de una decisión errónea. Así, si H0 no se rechaza lo que se puede concluir es que los datos no proporcionan suficiente evidencia para rechazarla, que los datos no apoyan suficientemente a H1 y no que se acepte la declaración establecida en H0. La H0 en (11) indica que el beneficio de la duda es dado al modelo en el sentido de que el modelo es juzgado en ser adecuado a menos que haya suficiente evidencia de lo contrario. Desde el punto de vista práctico y de que la hipótesis de investigación se plantea en la H1, las hipótesis en (11) fueron intercambiadas quedando H'0 : σD2 > e2 χ12,1− α vs. H1' : σD2 ≤ e2 χ12,1− α (13) de modo que si H'0 es rechazada, se sabe de antemano con que probabilidad (α’) se le estaría rechazando cuando es verdadera. Las hipótesis en (13) coinciden prácticamente con el planteamiento alternativo de Reynolds (1984), ya que para él la hipótesis nula es H'0 : σD2 ≥ e2 . Por lo tanto, si la H'0 en (13) es rechazada con un nivel de significación χ12,1− α α’ entonces se asume que el modelo es adecuado bajo los valores e y α especificados por el modelador o usuario del modelo. 4.3.2.2. Prueba UMP(α’) para H'0 Para la determinación de la prueba UMP(α’) para las hipótesis en (13), se utilizaron los siguientes resultados: (R1) Sea la familia exponencial f ( x; θ) = h(θ) r( x ) eλ( θ ) T ( x ) donde λ(θ) es monótona y θ ∈ (a, b) con -∞≤a<b≤∞, (i) si λ(θ) es creciente en θ entonces la familia tiene razón de verosimilitudes monótona en T(x) y (ii) si λ(θ) es decreciente en θ entonces la familia tiene razón de verosimilitudes monótona en -T(x). 29 ( ) (R2) Sea X con densidad fX x; θ , θ ∈ Ω ⊂ ℜ la cual conforma una familia con razón − − − () de verosimilitudes monótona en T x . Para probar H0: θ>θ0 vs. H1: θ≤θ0 con θ0 − conocida, existe la prueba UMP(α) la cual es dada por: () φ(x ) = c φ(x ) = 0 () si T (x ) = k si T (x ) > k con k tal que satisface α = E (φ(X )) . φ x = 1 si T x < k − − − − − − θ0 (se rechaza H0) (c una constante) − [Los resultados (R1), (R2) y variantes (con otra notación), pueden consultarse en las pp. 422-425 capítulo IX de Mood et al. (1974c)]. El supuesto para las hipótesis en (13) es que D1, D2,…, Dn son una muestra aleatoria de la distribución N(0, σD2 ). Se tiene que la función de densidad conjunta de D − es: ( ) = Π f (d ; σ ) = Π n fD d ; σ − 2 D − = donde h(σD2 ) = que la familia i i =1 (2π σ ) n 2 2 D (2π σ ) n 2 2 D − − ⎡n ⎤ ⎜ I( −∞,∞ ) (di )⎥ e⎝ ⎢⎣Π i =1 ⎦ () − 2 D 2 D para D y como λ(σD2 ) = − − e 2πσD2 − n , r d = Π I( −∞,∞ ) (di ) , {f (d; σ ), σ D i =1 1 1 2 σ D2 ⎛ ⎜− 1 2 σ D2 1 1 n 2 D i =1 ( di ) 2 I( −∞,∞ ) (di ) ⎞ n ⎟ ( di ) 2 ⎟ ⎠ i=1 ∑ λ(σD2 ) = − 1 2σD2 y () n T d = ∑ (di )2 . Por lo − i =1 } ∈ ℜ + pertenece a la clase exponencial indicada en (R1) 1 es monótona creciente en σD2 entonces por (i) de (R1) la 2 2σD () n n i =1 i =1 familia tiene razón de verosimilitudes monótona en T d = ∑ (di )2 = ∑ (di − µ D )2 . Por lo − tanto, por (R2) la prueba UMP(α’) es dada por: () φ(d) = 0 n φ d = 1 si ∑ (di )2 ≤ k − − i =1 n si ∑ (di )2 > k i =1 30 Note que c=0 y que la igualdad en k puede establecerse en cualquiera de las dos condiciones ya que D es una variable aleatoria continua. La constante k es tal que − ( ( )) satisface α = Eσ 2 φ D donde σ ' D0 2 D0 − = e2 χ12,1− α , por lo que ⎛ n ⎞ α ' = P⎜⎜ ∑ Di2 ≤ k | σD2 = σD2 0 ⎟⎟ ⎝ i =1 ⎠ ⎞ ⎛ n Di2 k = P⎜⎜ ∑ 2 ≤ 2 | σD2 = σD2 0 ⎟⎟ ⎠ ⎝ i =1 σD σD ⎛ n D2 k = P⎜ ∑ 2i ≤ 2 ⎜ i =1 σD σD 0 0 ⎝ ⎛ k = P⎜ χn2 ≤ 2 ⎜ σD 0 ⎝ la cual implica que ⎞ ⎟ ⎟ ⎠ ⎞ ⎟ ⎟ ⎠ Di2 [por el resultado (3a): ∑ 2 ~ χn2 ] i =1 σ D n k = χn2, α ' donde χn2, α ' es el cuantil α’ de la distribución ji-cuadrada 2 σD 0 ( con n g.l., es decir, α = P χ ≤ χ ' 2 n 2 n, α ' ), así, k=σ χ 2 D0 2 n, α ' = e2 χn2, α ' χ12,1− α . Por lo tanto, la prueba UMP(α’) es: n () n φ d = 1 si ∑ (di )2 ≤ − i =1 e2 χn2, α ' χ 2 1,1− α ⇔ 2 2 ∑ (di ) χ1,1− α i =1 e 2 ≤ χn2, α ' (14) n () φ d = 0 si 2 2 ∑ (di ) χ1,1− α i =1 e2 − > χn2, α ' Con D~N(0, σD2 ) y por (14), la estadística de prueba bajo H'0 verdadera puede escribirse como n V' = 2 2 ∑ Di χ1,1− α i =1 e2 = χ12,1− α n 2 D ~ χn2 2 ∑ i i = 1 e (15) y H'0 se rechazará con un nivel de significación α’, si Vc' ≤ χn2, α ' donde Vc' es el valor de la estadística de prueba V ' que se obtendría al usar la información contenida en la muestra d1,d2,…,dn y los valores e y α especificados por el modelador o usuario del 31 modelo. Así, si H'0 se rechaza con un nivel de significación α’ entonces el modelo será considerado aceptable. Las estadísticas de prueba V y V ' correspondientes a las hipótesis en (11) y (13), son iguales. 4.3.3. Validación de modelos basada en el porcentaje del error en ausencia de sesgo En esta sección se trata el caso cuando el modelador o usuario del modelo está más interesado en el porcentaje del error que en el valor absoluto del error. Según Reynolds (1984), el porcentaje de error puede ser manejado de la siguiente manera: si el usuario especifica p y α tal que el porcentaje de error D 100 no Y sea más que p100 con probabilidad 1-α entonces, como en (5), el requisito es que ⎞ ⎛D P⎜⎜ ≤ p ⎟⎟ ≥ 1 − α ⎠ ⎝Y y señala que si Q = (16) D ~N(0, σQ2 ) entonces por los mismos argumentos utilizados para la Y variable aleatoria D, el resultado (10), las hipótesis en (13) y la estadística de prueba en (15) corresponden respectivamente a: σQ2 ≤ p2 χ12,1− α H'0' : σQ2 > (17) p2 χ12,1− α H1'' : σQ2 ≤ vs. p2 χ12,1− α n V = '' 2 2 ∑ Qi χ1,1− α i =1 p2 = χ12,1− α p2 n ∑Q = i =1 2 i χ12,1− α p2 (18) 2 ⎛D ⎞ 2 ∑ ⎜⎜ i ⎟⎟ ~ χn i =1 ⎝ Yi ⎠ n (19) y H'0' se rechazará con un nivel de significación α’ si Vc'' ≤ χn2, α ' donde Vc'' es el valor de la estadística de prueba V '' que se obtendría al usar la información contenida en la ⎛d d d ⎞ muestra q1, q2,…,qn ⎜⎜ 1 , 2 ,..., n ⎟⎟ y los valores p y α especificados por el modelador o yn ⎠ ⎝ y1 y 2 32 usuario del modelo. Por lo tanto, el modelo será considerado aceptable si se rechaza H'0' . Al usar el error absoluto o el porcentaje de error, es necesario probar normalidad D respectivamente. Si Y~N(Z, σ2Y ) entonces Y para la apropiada variable aleatoria D o D~N(0, σD2 ) donde σ2Y = σD2 . Para la determinación de la distribución de Q = D es Y necesario pedir que µ Y = Z ≠ 0 , de lo contrario Q=1. La función de distribución de Q= D Y−Z ⎛ 1⎞ = = 1 − Z⎜ ⎟ es Y Y ⎝Y⎠ ⎞ ⎛ ⎛ 1⎞ ⎞ ⎛ ⎛ 1⎞ ⎞ ⎛ ⎛ 1⎞ FQ (q) = P(Q ≤ q) = P⎜⎜1 − Z⎜ ⎟ ≤ q ⎟⎟ = P⎜⎜ − Z⎜ ⎟ ≤ q − 1⎟⎟ = P⎜⎜ Z⎜ ⎟ ≥ 1 − q ⎟⎟ ⎝Y⎠ ⎠ ⎝ ⎝Y⎠ ⎠ ⎝ ⎝Y⎠ ⎠ ⎝ ⎛ Z ⎞ ⎛ Z ⎞ ⎛ 1 1− q ⎞ = P⎜ ≥ ⎟⎟ ⎟⎟ = FY ⎜⎜ ⎟ = P⎜⎜ Y ≤ 1− q ⎠ Z ⎠ ⎝Y ⎝ 1− q ⎠ ⎝ así, la función de densidad de Q = ( D está dada por Y [ ) ] ⎛ Z ⎞ ⎛ Z ⎞ ⎛ Z ⎞ d Z f ⎜ Z(1 − q)−1 = fY ⎜⎜ fQ (q) = fY ⎜⎜ ⎟ ⎟⎟ − Z(1 − q)− 2 ( −1) = ⎟⎟ 2 Y⎜ (1 − q) ⎝ 1 − q ⎟⎠ ⎝ 1− q ⎠ ⎝ 1 − q ⎠ dq Z = (1 − q)2 ⎡ 1 1 exp ⎢− 2 2π σ Y ⎢⎣ 2σ Y ⎛ Z ⎞ − Z ⎟⎟ ⎜⎜ ⎝ 1− q ⎠ Z = (1 − q)2 ⎡ 1 1 exp ⎢− 2 2 π σD ⎢⎣ 2σD ⎛ Zq ⎞ ⎟⎟ ⎜⎜ ⎝ 1− q ⎠ = ⎡ Z2 1 exp ⎢− 2 2 2πσD2 (1 − q) ⎢⎣ 2σD Z 2 2 ⎤ ⎥ ⎥⎦ ⎤ ⎥ ⎥⎦ 2 ⎛ q ⎞ ⎤ ⎟⎟ ⎥ Iℜ −{1}(q) ⎜⎜ ⎝ 1 − q ⎠ ⎦⎥ La forma de la función de densidad de probabilidad (fdp) fQ (q) depende de los parámetros Z y σ2Y = σD2 de la distribución de Y~N(Z, σ2Y ). Cuando Z= σD la fdp de Q es fQ (q) = ⎡ 1 ⎛ q ⎞2 ⎤ 1 1 exp ⎢− ⎜⎜ ⎟⎟ ⎥ Iℜ −{1}(q) 2π (1 − q)2 ⎢⎣ 2 ⎝ 1 − q ⎠ ⎥⎦ y por lo tanto no depende de dichos parámetros. 33 Bajo los supuestos establecidos la distribución de es estrictamente un porcentaje y D d tiene soporte ℜ − {1}, i no Y yi D no tiene distribución normal. Así, el porcentaje de Y error bajo los supuestos Y~N(Z, σ2Y ) entonces D~N(0, σD2 ), es un enfoque confuso para medir exactitud en predicción comparado con el error absoluto. n Freese (1960), señala que si Xi~N(µi,σ2) entonces ∑ (X − µ ) i =1 i σ2 i 2 2 n ⎛ X − µi ⎞ 2 = ∑⎜ i ⎟ ~ χn σ ⎠ i =1 ⎝ donde Xi es el valor estimado por la nueva técnica para la i-ésima unidad experimental, µi es el valor “verdadero o correcto” medido con la técnica estándar para la i-ésima unidad experimental, n es el número de unidades experimentales y σ2 es la exactitud e2 p2 2 o σ ≤ 2 para el caso del error absoluto o del requerida, es decir, σ ≤ 2 χ1,1− α χ1,1− α 2 porcentaje del valor verdadero o correcto respectivamente. Por lo tanto, la expresión del ⎛ ⎡ σ ⎤2 ⎞ Di Xi − µi = ~ N⎜ 0, ⎢ ⎥ ⎟ , tiene error como un porcentaje del valor verdadero o correcto ⎜ ⎣ µi ⎦ ⎟ µi µi ⎝ ⎠ una interpretación práctica como la exactitud requerida expresada en términos relativos del valor real en vez de unidades absolutas del valor real, y los resultados (16), (17), (18), (19) se cumplen con Di=Xi-µi y Yi=µi. De aquí en adelante los resultados obtenidos sólo se relacionan a cuando la exactitud requerida es expresada en unidades absolutas del valor real u observado (Yi), es decir, con el valor absoluto del error [P(D ≤ e ) ≥ 1 − α ] . 4.3.4. Validación por intervalo de confianza empleando el error crítico en ausencia de sesgo En esta sección se estudia el enfoque de intervalos de confianza, esto es motivado debido a que en el planteamiento de Freese, diferentes usuarios del modelo 34 pueden tener distintas necesidades de exactitud, la cual conduce a diferentes valores de e. Autores como Rennie y Wiant (1978) y Ek y Monserud (1979), han tratado este problema calculando un error máximo anticipado o error crítico (e*) la cual es el valor más pequeño de e que conducirá al no rechazo de H0 en (11). Reynolds (1984), señala que si el usuario del modelo especifica un valor de e tal que e>e* entonces el modelo es adecuado y si e<e* entonces el modelo no es adecuado. El error crítico e* puede determinarse de la región de rechazo de H0 en (11): Vc > χn2,1− α ' n χ12,1− α ∑ di2 i =1 e2 e2 n χ12,1− α ∑ di2 > χn2,1− α ' < 1 χ 2 n,1− α ' i =1 n e2 < χ12,1− α ∑ di2 χ i =1 2 n,1− α ' 1 n ⎞2 ⎛ 2 ⎜ χ1,1− α ∑ di2 ⎟ i =1 ⎟ e<⎜ ⎜ χn2,1− α ' ⎟ ⎟ ⎜ ⎠ ⎝ (20) En páginas anteriores se indicó, con base en el planteamiento de Freese, que si la H0 en (11) no se rechaza entonces el modelo es considerado aceptable o adecuado bajo los valores e, α y α’ especificados por el modelador o usuario del modelo, así, de (20) 1 n ⎞2 ⎛ 2 ⎜ χ1,1− α ∑ di2 ⎟ i =1 ⎟ e* = ⎜ ⎜ χn2,1− α ' ⎟ ⎟ ⎜ ⎠ ⎝ Por lo tanto, H0 se rechazará si e<e* y no se rechazará si e≥e*, es decir, si el modelador o usuario del modelo especifica un valor de e tal que e≥e* entonces el modelo es considerado aceptable y si e<e* el modelo no es aceptable. Cabe señalar que Rennie y 35 Wiant (1978) y Reynolds (1984), no indicaron cual es la decisión cuando e=e*, aunque al señalar que H0 se rechaza cuando Vc > χn2,1− α ' entonces la región de no rechazo es Vc ≤ χn2,1− α ' por lo que si e=e* la decisión será que el modelo es aceptable. El error crítico 1 n ⎞2 ⎛ 2 ⎜ χ1,1−α ∑ Di2 ⎟ i=1 ⎟ E* = ⎜ ⎜ χ n2,1−α ' ⎟ ⎟ ⎜ ⎠ ⎝ es una estadística que Ek y Monserud (1979) usaron como un índice para comparar dos modelos, de modo que el modelo con el menor error crítico es el mejor modelo. El error crítico también puede determinarse de la región de rechazo de H'0 en (13), es decir, Vc' ≤ χn2, α ' n χ12,1− α ∑ di2 e i =1 2 ≤ χn2, α ' e2 ≥ n χ12,1− α ∑ di2 1 χ 2 n, α ' i =1 n e2 ≥ χ12,1− α ∑ di2 χ i =1 2 n, α ' 1 n ⎛ 2 ⎞2 ⎜ χ1,1− α ∑ di2 ⎟ i =1 ⎟ e≥⎜ ⎜ χn2, α ' ⎟ ⎜ ⎟ ⎝ ⎠ (21) Por lo tanto, de (21) sea 1 n ⎛ 2 ⎞2 ⎜ χ1,1− α ∑ di2 ⎟ i =1 ⎟ e** = ⎜ ⎜ χn2, α ' ⎟ ⎜ ⎟ ⎝ ⎠ 36 Así, H'0 se rechazará si el modelador o usuario del modelo especifica un valor de e tal que e≥e**, es decir, el modelo será aceptable y si e<e** el modelo no será aceptable. Análogamente al uso como un índice que Ek y Monserud (1979) le dieron a E*, el error crítico 1 n ⎛ 2 ⎞2 ⎜ χ1,1− α ∑ Di2 ⎟ i =1 ⎟ E** = ⎜ 2 ⎜ ⎟ χn, α ' ⎜ ⎟ ⎝ ⎠ también es una estadística para comparar dos modelos, de tal manera que el modelo con el menor error crítico es el mejor modelo. Los errores críticos e* y e** son similares, su diferencia se debe sólo a sus denominadores χn2,1−α ' y χn2, α ' respectivamente. Si α ' = Si α ' < 1 entonces χn2,1− α ' = χn2, α ' y e*=e**. 2 1 entonces 2 χn2,1− α ' > χn2, α ' 1 χ 2 n,1− α ' < 1 χ 2 n, α ' n χ12,1− α ∑ di2 χ i =1 2 n,1− α ' n < χ12,1− α ∑ di2 χ i =1 2 n, α ' (e*)2 < (e**)2 e* < e** Si para un valor α ' < (22) 1 , e y α especificados por el modelador o usuario del modelo se 2 tiene que e*< e <e** entonces el modelo es aceptable empleando la estadística E* y no lo es con la estadística E**. Esto indica que las hipótesis en (13) e2 H :σ > 2 χ1,1− α ' 0 2 D vs. e2 H :σ ≤ 2 χ1,1− α ' 1 2 D representan un planteamiento alternativo para decidir si un modelo cumple con la exactitud requerida que el planteamiento original de Freese (1960), además de la 37 implicación práctica para la mayoría de los usuarios al tener la hipótesis de investigación en la hipótesis alternativa. A continuación se determina y expone la interpretación del error crítico que hizo Reynolds (1984), a través de un intervalo de confianza (IC) bilateral. Con el supuesto D~N(0, σD2 ), considere el parámetro ε definido como ( ε = σD2 χ12,1− α ) 1 2 el cual corresponde al cuantil 1-α de la distribución de |D| o equivalentemente ε 2 es el cuantil 1-α de la distribución de D2, ya que por el resultado (6) se tiene que ⎛ D2 ⎞ 1 − α = P⎜⎜ 2 ≤ χ12,1− α ⎟⎟ ⎝ σD ⎠ ( = P(D = P D2 ≤ σD2 χ12,1− α ( 2 ≤ ε2 2 ) ) = P D ≤ ε2 ) = P(D ≤ ε ) La variable aleatoria pivote para el parámetro ε es Di2 ~ χn2 , la estadística de ∑ 2 σ i =1 D n prueba empleada en las pruebas de hipótesis establecidas en (11) y (13). Por lo tanto, ⎛ n 2 ⎞ ⎜ ∑ Di ⎟ 2 ' i =1 ⎜ 1− α = P ≤ χn,1− α ' ⎟ ⎜ σD2 ⎟ ⎜ ⎟ ⎝ ⎠ despejando σ de ε se tiene que σ = 2 D 2 D ε2 χ12,1− α y por consiguiente ⎛ n 2 ⎞ ⎜ ∑ Di ⎟ ⎜ i =1 ⎟ ' 2 1 − α = P⎜ 2 ≤ χn,1− α ' ⎟ ε ⎜ 2 ⎟ ⎜χ ⎟ ⎝ 1,1− α ⎠ 38 n ⎛ 2 ⎞ ⎜ χ1,1− α ∑ Di2 ⎟ 2 i =1 ⎟ = P⎜ ≤ χ n,1− α ' 2 ⎜ ⎟ ε ⎜ ⎟ ⎝ ⎠ n ⎛ 2 ⎞ ⎜ χ1,1− α ∑ Di2 ⎟ 2⎟ i =1 ⎜ =P ≤ε ⎜ χn2,1− α ' ⎟ ⎜ ⎟ ⎝ ⎠ ( = P (E*)2 ≤ ε 2 ) = P(E* ≤ ε ) ( Por lo que (E*, ∞) es un IC unilateral del (1-α’)100% para ε = σD2 χ12,1− α ) 1 2 . En el IC estimado (e*, ∞), e* es el límite inferior de confianza del cuantil 1-α de la distribución de |D|. El error crítico E** también puede interpretarse en términos de un IC para el parámetro ε, ya que ⎛ n 2 ⎞ ⎜ ∑ Di ⎟ ' 2 i =1 ⎜ α =P ≤ χn, α ' ⎟ ⎜ σD2 ⎟ ⎜ ⎟ ⎝ ⎠ ⎛ n 2 ⎞ ⎜ ∑ Di ⎟ ' 2 i =1 ⎜ α = 1− P ≥ χn, α ' ⎟ ⎜ σD2 ⎟ ⎜ ⎟ ⎝ ⎠ ⎛ n 2 ⎞ ⎜ ∑ Di ⎟ 2 ' i =1 ⎜ ≥ χn, α ' ⎟ 1− α = P ⎜ σD2 ⎟ ⎜ ⎟ ⎝ ⎠ ⎞ ⎛ n 2 ⎟ ⎜ ∑ Di ⎟ ⎜ i =1 2 = P⎜ 2 ≥ χn, α ' ⎟ ε ⎟ ⎜ 2 ⎟ ⎜χ 1 , 1 − α ⎠ ⎝ 39 n ⎛ 2 ⎞ ⎜ χ1,1− α ∑ Di2 ⎟ 2 i =1 ⎟ = P⎜ ≥ χ n, α ' 2 ⎜ ⎟ ε ⎜ ⎟ ⎝ ⎠ n ⎛ 2 ⎞ ⎜ χ1,1− α ∑ Di2 ⎟ 2⎟ i =1 ⎜ =P ≥ε ⎜ ⎟ χn2, α ' ⎜ ⎟ ⎝ ⎠ ( = P (E * *)2 ≥ ε 2 ) = P(E * * ≥ ε ) ( Por lo que (0, E**) es un IC unilateral del (1-α’)100% para ε = σD2 χ12,1− α ) 1 2 . En el IC estimado (0, e**), e** es el límite superior de confianza del cuantil 1-α de la distribución de |D|. Reynolds (1984) combinó los dos IC unilaterales para formar ( EI∗ , EI∗∗ ), un intervalo de confianza bilateral (ICB) del (1-2α’)100% para ε. Si se reemplaza α’ por α' 2 en las expresiones para E* y E** se obtiene un ICB del (1-α’)100% para ε. Así, en el ICB estimado ( eI∗ , eI∗∗ ) 1 1 n ⎛ 2 ⎞2 ⎜ χ1,1− α ∑ di2 ⎟ i =1 ⎟ eI∗ = ⎜ ⎜ χ2 α' ⎟ n,1− ⎜ ⎟ 2 ⎝ ⎠ y n ⎛ 2 ⎞2 ⎜ χ1,1− α ∑ di2 ⎟ i =1 ⎟ eI∗∗ = ⎜ ⎜ χ2 α' ⎟ n, ⎜ ⎟ 2 ⎝ ⎠ (23) son los límites de confianza inferior y superior respectivamente del (1-α’)100% para el cuantil 1-α de la distribución de |D| bajo el supuesto de que D~N(0, σD2 ). El intervalo de confianza estimado significa que se tiene confianza en un (1-α’)100% que el punto de la distribución |D| que tiene debajo el (1-α)100% de los errores absolutos está localizado ( ) en alguna parte en el intervalo eI* , eI* * . Del resultado (22) se tiene que si α ' < entonces e*<e**. La función de distribución de T=|D| con D~N(0, σD2 ) es 40 1 2 FT ( t ) = P(T ≤ t ) = P(D ≤ t ) = P(− t ≤ D ≤ t ) = P(D ≤ t ) − P(D ≤ −t ) = FD ( t ) − FD ( − t ) = FD ( t ) − (1 − FD ( t )) = 2FD ( t ) − 1 por lo que la función de densidad de T=|D| está dada por fT ( t ) = d d FT ( t ) = [2FD ( t ) − 1] = 2fD ( t ) dt dt 1 f T( t ) = 2 − 2t 2 e 2σD I( 0, ∞ ) ( t ) 2π σD El soporte de T=|D| es (0, ∞) ya que -∞<d<∞ y |d|≥0. Su gráfica corresponde a la mitad derecha de D~N(0, σD2 ) en donde cada imagen de la función densidad de D es multiplicada por 2. A continuación se deduce por otro camino el ICB ( EI∗ , EI∗∗ ) del (1-α’)100% para ε que determinó Reynolds (1984). Básicamente el procedimiento consistirá en obtener un ICB del (1-α’)100% para σD2 y a partir de éste se determinará el ICB del (1-α’)100% para ε. Con el supuesto D~N(0, σD2 ), una variable aleatoria pivote para σD2 es n H(σD2 ) = ∑D i =1 σD2 2 i ~ χn2 Para 1-α’ dado se pueden determinar h1 y h2 de la distribución χn2 tales que ( 1 − α ' = P h1 < H(σD2 ) < h2 ) n ⎞ ⎛ Di2 ⎟ ⎜ ∑ ' i =1 ⎜ 1 − α = P h1 < < h2 ⎟ 2 ⎟ ⎜ σD ⎟ ⎜ ⎠ ⎝ n n ⎞ ⎛ 2 D Di2 ⎟ ⎜ ∑ ∑ i ' i =1 i =1 ⎜ 1 − α = P h1 < , < h2 ⎟ ⎟ ⎜ σD2 σD2 ⎟ ⎜ ⎠ ⎝ 41 ⎛ ⎜ 1 − α ' = P⎜ σD2 < ⎜ ⎜ ⎝ n n ⎞ ⎟ < σD2 ⎟ ⎟ ⎟ ⎠ ∑D ∑D 2 i i =1 , h1 ⎛ n 2 ⎜ ∑ Di ' 1 − α = P⎜ i =1 < σD2 < ⎜ h2 ⎜ ⎝ 2 i i =1 h2 n ∑D i =1 h1 2 i ⎞ ⎟ ⎟ ⎟ ⎟ ⎠ Por lo tanto ⎛ n 2 ⎜ ∑ Di ⎜ i =1 , ⎜ h2 ⎜ ⎝ n ∑D i =1 h1 2 i ⎞ ⎟ ⎟ ⎟ ⎟ ⎠ es un ICB del (1-α’)100% para σD2 . Una manera de obtener h1 y h2 es tal que se tenga igual probabilidad en las colas de la distribución χn2 , es decir, ⎞ ⎞ ⎛ n 2 ⎛ n 2 ⎟ ⎟ ⎜ ∑ Di ⎜ ∑ Di ' i =1 i =1 ⎟=α ⎟ ⎜ ⎜ P h P h = > < 1 2 ⎟ 2 ⎟ ⎜ σD2 ⎜ σD2 ⎟ ⎟ ⎜ ⎜ ⎠ ⎠ ⎝ ⎝ por lo que h1 = χ 2 α ' y h2 = χ 2 n, 2 n,1− α' 2 . Así, el ICB del (1-α’)100% para σD2 es ⎛ n 2 n 2⎞ ⎜ ∑ Di ∑ Di ⎟ ⎟ ⎜ i =1 , i =1 ⎜ χ2 α' χ2 α' ⎟ n, ⎜ n,1− 2 2 ⎟ ⎠ ⎝ (24) y es referido a veces como el IC de colas iguales para la varianza. Otra manera de determinar h1 y h2 es tal que minimicen la amplitud esperada del ( ) intervalo, E(A), sujeta a la restricción 1 − α ' = P h1 < H(σD2 ) < h2 . Se tiene que 1 − α ' = FH (h2 ) − FH (h1 ) (25) y 42 n ⎞ ⎛ n 2 ⎜ ∑ Di ∑ Di2 ⎟ n ⎟ = ⎛⎜ 1 − 1 ⎞⎟ E⎛⎜ D2 ⎞⎟ E( A ) = E⎜ i =1 − i =1 ∑ i ⎜ h1 h2 ⎟ ⎜⎝ h1 h2 ⎟⎠ ⎜⎝ i =1 ⎟⎠ ⎟ ⎜ ⎠ ⎝ ⎛1 1⎞ n = ⎜⎜ − ⎟⎟ ∑ E(Di2 ) ⎝ h1 h2 ⎠ i =1 (26) Derivando (25) y (26) respecto a h1 se tiene que d d [FH (h2 ) − FH (h1 )] (1 − α ' ) = dh1 dh1 0 = fH (h2 ) dh2 − fH (h1 ) dh1 fH (h1 ) = fH (h2 ) dh2 dh1 dh2 fH (h1 ) = dh1 fH (h2 ) (27) n dE( A ) d ⎛1 1⎞ ⎜ − ⎟=0 = ∑ E(Di2 ) dh1 dh1 ⎜⎝ h1 h2 ⎟⎠ i =1 − 1 1 dh2 + 2 =0 2 h1 h2 dh1 1 dh2 1 = 2 2 h2 dh1 h1 dh2 h22 = dh1 h12 (28) Igualando (27) y (28) se obtiene fH (h1 ) h22 = fH (h2 ) h12 h12 fH (h1 ) = h22 fH (h2 ) (29) Por lo tanto, h1 y h2 se seleccionan de modo que cumplan (29) y sujetos a la restricción ( ) P h1 < H(σD2 ) < h2 = 1 − α ' . 43 ( Ahora se determinará un ICB del (1-α’)100% para ε = σD2 χ12,1− α ) 1 2 , el cuantil 1-α de la distribución de |D|, a partir del ICB del (1-α’)100% para σD2 obtenido en (24). Para esto se utilizó el siguiente resultado que puede ser consultado en el capítulo VIII página 378 de Mood et al. (1974d): Si τ(.) es una función monótona creciente y (T1=t1(X1, X2,…,Xn), T2=t2(X1, X2,…,Xn)) es un IC del γ100% para θ entonces (τ(T1 ), τ(T2 )) es un IC del γ100% para τ(θ) ya que Pθ (τ(T1 ) < τ(θ) < τ(T2 )) = Pθ (T1 < θ < T2 ) = γ Del IC del ( ) ( (1-α’)100% τ σD2 = σD2 χ12,1− α ) 1 2 =ε para σD2 obtenido en (24) y de que la función es monótona creciente, entonces por el resultado antes mencionado ⎛ n 2 ⎜ ∑ Di τ ⎜ i =21 ⎜ χ α' ⎜ n,1− 2 ⎝ ⎛ n 2⎞ ⎞ ⎜ ∑ Di ⎟ ⎟ ⎟ ⎟ < τ σ 2 < τ ⎜ i =1 D ⎜ χ2 α' ⎟ ⎟ ⎜ n, 2 ⎟ ⎟ ⎠ ⎝ ⎠ ( ) 1 2 ⎞ ⎛ ⎞ ⎛ ⎜ ∑ Di2 χ12,1− α ⎟ ⎜ ∑ Di2 χ12,1− α ⎟ ⎟ ⎟ < ε < ⎜ i =1 ⎜ i =1 2 ⎟ ⎜ ⎜ χ2 α' ⎟ χ α' n, n,1− ⎟ ⎜ ⎟ ⎜ 2 2 ⎠ ⎝ ⎠ ⎝ n n 1 2 EI∗ < ε < EI∗∗ Así, ( EI∗ , EI∗∗ ) es un ICB del (1-α’)100% para ε, el cual coincide con el obtenido por Reynolds (1984), empleando un procedimiento diferente. Cabe señalar que del análisis efectuado para la obtención del resultado e*<e**, es necesario especificar un valor α' < 1 . 2 Probablemente para la mayoría de los usuarios de un modelo, sea relativamente más práctico y sencillo trabajar con el IC para σD2 que para el IC del cuantil 1-α de la distribución de |D|. Por lo que se expone, respecto a la adecuación del modelo, un posible uso del ICB del (1-α’)100% para σD2 . 44 Para e y α especificados por el modelador o usuario del modelo considere las hipótesis H0 : σD2 = e2 χ12,1− α vs. H1 : σD2 ≠ e2 χ12,1− α las cuales constituyen el planteamiento de una prueba de hipótesis de dos colas con nivel de significación, digamos α’. También, considere el ICB del (1-α’)100% para σD2 n n ∑ Di2 i =1 χ2 n,1− < σD2 < α' 2 ∑D i =1 2 χ n, 2 i α' 2 Con un nivel de significación α’, no se rechazará H0 : σD2 = H1 : σD2 ≠ si e2 χ12,1− α e2 χ12,1− α a favor de e2 e2 si el valor está en el IC del (1-α’)100% para σD2 . Se rechazará H0 χ12,1− α χ12,1− α está fuera del intervalo. El ICB del (1-α’)100% se puede interpretar como el conjunto de valores de e2 e2 2 para los cuales σ = es “aceptable” en el nivel H : 0 D χ12,1− α χ12,1− α de significación α’. No hay un valor aceptable para el parámetro σD2 sino un número infinito de valores dentro del intervalo, es por esto que, por lo general, “no se acepta” la H0 de que σD2 tome un valor particular e2 e2 , aun si el valor está dentro del IC. χ12,1− α χ12,1− α Como diversos valores de σD2 son aceptables, se evita aceptar un solo valor de σD2 como el valor real. Una posible utilidad del ICB del (1-α’)100% para σD2 es que proporciona una idea de los valores de e y α para los cuales el modelo será considerado aceptable ⎡ e2 ⎤ e2 2 se encuentre ⎢caso la igualdad en σD ≤ 2 ⎥ , y éstos serán los que hagan que 2 χ1,1− α ⎦⎥ χ1,1− α ⎣⎢ en dicho IC. Esto es debido a que un modelo es aceptable si se cumple que σD2 ≤ 45 e2 . χ12,1− α Otra utilidad más práctica es que proporciona información acerca de la amplitud de los valores de σD2 . 4.3.5. Planteamiento para validar un modelo en predicción de varias variables Con base a los resultados obtenidos, se plantea un procedimiento gráfico para visualizar cuando un modelo satisface la exactitud requerida para varias variables que sean salidas de un modelo o submodelo. Sea el caso de validar un modelo en predicción para tres variables de estado observadas Y1, Y2, Y3 con Z1, Z2, Z3 sus correspondientes valores predichos por el modelo, así, se tienen tres pares de conjuntos (Yjk, Zjk) con j=1,2,3; k=1,2,…,nj, los mismos valores de exactitud e y α especificados por el modelador o usuario del modelo y la misma α’ empleada en las inferencias para la determinación de e*j o e*j * con j=1,2,3. e2 para la variable Yj Se tendrá que el modelo satisface la exactitud requerida σ ≤ 2 χ1,1− α 2 D con un nivel de significación α’ si e ≥ e*j o e ≥ e*j * . Un gráfico de líneas o barras con los letreros Y1, Y2 y Y3 en el eje de las abscisas y los valores e*j o e*j * en el eje de las ordenadas, permitiría visualizar para cuales variables el modelo es adecuado o aceptable en predicción. Por ejemplo, si e*2 ≤ e < e1* < e3* entonces el modelo sólo es aceptable en predicción de la variable Y2. Aunque también se tendría que el modelo es más adecuado en predicción para Y2, luego para Y1 y finalmente para Y3 (Figura 3). 46 10 9 8 7 6 e* 5 4 3 2 1 0 Y1 Y2 Y3 Figura 3. Valores hipotéticos del error crítico e*j (j=1, 2, 3) para cada variable. Otros gráficos que contribuirían a completar la percepción de la adecuación de un modelo analizando varias variables, sería un gráfico de los ICB del (1-α’)100% para ( ) 1 la V(D j ) = σD2 j j=1,2,3 y un gráfico de los ICB del (1-α’)100% para ε j = σD2 j χ12,1− α 2 , el cuantil 1-α de la distribución de |Dj| j=1,2,3. El primero indicaría la amplitud de los valores para cada σD2 j , un intervalo angosto implicaría que la distribución de Dj es ( ) menos variable. El segundo, con los IC eIj* , eIj* * graficados, significaría que se tiene confianza en un (1-α’)100% que el punto de la distribución |Dj| que tiene debajo el (1- ( ) α)100% de los errores absolutos está localizado en alguna parte en el intervalo eIj* , eIj* * . ( Un intervalo con menor límite superior de confianza para ε j = σD2 j χ12,1− α ) 1 2 implicaría que para la variable Yj el modelo es más adecuado ya que contiene el cuantil 1-α de los valores |djk| antes que las otras variables, y si el IC es angosto mucho mejor. Ambos gráficos serían como la Figura 4, con la diferencia de los valores en el eje de las ( ordenadas, es decir, V(D j ) = σD2 j para el ICB de la varianza y ε j = σD2 j χ12,1− α valores del cuantil 1-α de la distribución de |Dj|. 47 ) 1 2 para los 11 10 V(Dj) 9 8 7 6 Y1 Y2 Y3 Figura 4. Valores hipotéticos de V(Dj) o εj (j=1, 2, 3) para cada variable. Se requiere que las variables sean medidas en las mismas unidades para que las comparaciones sean justas. En caso contrario se tendría que establecer diferentes valores de e, una para cada variable Yj y mantener los mismos valores de α y α’ en las inferencias. También para evitar trabajar con parejas de datos que tienen unidades de medida diferentes, se puede estandarizar cada columna de datos, de modo que cada columna transformada tendrá media cero y desviación estándar uno, además de que no tendrán unidades de medida. 4.3.6. Planteamiento para la comparación de dos o más modelos en predicción Un problema frecuentemente dado en la construcción de un nuevo modelo M2, para un sistema particular cuando ya se tiene un modelo M1 de dicho sistema, es decidir cuál modelo es mejor en cuanto a la exactitud en predicción de los valores del sistema real (Y). En páginas anteriores se trató este problema cuando se determinaron los errores críticos E* y E**. Ahora, se plantea analíticamente la situación y una solución por medio del error crítico E**. Análogamente la comparación puede hacerse utilizando E*. Sea (Yi, Zij) i=1,2,…,n y j=1,2 donde para el i-ésimo par y modelo j (Mj), Yi es el valor observado de la variable de interés y Zij el correspondiente valor predicho mediante el modelo j. Usando los conjuntos (Yi, Zi1) y (Yi, Zi2) para i=1,2,…,n se pueden 48 obtener e1* * y e*2* que son respectivamente los errores críticos basados en el planteamiento alternativo para los modelos M1 y M2. Si el modelador o usuario del modelo especifica un valor de e tal que e ≥ e*j * para alguna (j=1,2) donde e*j * es un valor de la estadística 1 n ⎞2 ⎛ 2 ⎜ χ1,1− α ∑ Dij2 ⎟ i =1 ⎟ E*j * = ⎜ 2 ⎟ ⎜ χn, α ' ⎟ ⎜ ⎠ ⎝ para el modelo j entonces dicho modelo es aceptable. Así, en la comparación de dos modelos, el modelo con el menor error crítico será el mejor modelo. Por ejemplo, si e1* * ≤ e < e*2* entonces el mejor modelo es M1 (Figura 5). Por supuesto que en la determinación de e*j * se emplean los mismos valores de α y α’. Este procedimiento permite comparar m modelos (j=1,2,…,m) bajo las mismas consideraciones planteadas para el caso de dos modelos. 10 9 8 7 6 e** 5 4 3 2 1 0 M1 M2 Figura 5. Valores hipotéticos del error crítico e *j* (j=1, 2) para la variable Y por medio de los modelos 1 y 2 (M1 y M2). 49 4.3.7. Validación de modelos basada en el valor absoluto del error en presencia de sesgo constante En la obtención de todos los resultados del procedimiento para determinar si un modelo satisface los requerimientos de exactitud, el supuesto fue D~N(0, σD2 ), es decir, que no hay sesgo en el modelo. El objetivo en esta sección es obtener un procedimiento cuando el modelo presente sesgo en sus pronósticos Zi para el correspondiente valor observado Yi. Del supuesto D~N(0, σD2 ) se tiene que µD=E(D)=E(Y-Z)=E(Y)-Z=0, es decir, E(Y)=Z la cual indica que la esperanza de la variable aleatoria de los datos observados (Y) es igual al correspondiente valor predicho por el modelo (Z), y es en este sentido de que se dice que el modelo no presenta sesgo. Aunque en sus planteamientos Freese (1960), no indica explícitamente la traducción de la exactitud requerida P(D ≤ e ) ≥ 1 − α en σD2 ≤ e2 , asume como indica χ12,1− α también Reynolds (1984) que D~N(0, σD2 ), es decir, que el modelo no presenta sesgo [E(D)=0]. Reynolds (1984) no presentó un planteamiento basado en el procedimiento de Freese cuando el modelo presenta sesgo. Si el modelo presenta sesgo constante (SC) B, Freese (1960) aunque señala que si el sesgo B es el mismo para todos los valores Yi (µi en su notación), y que su magnitud puede estimarse por la media de las diferencias entre los valores observados y los predichos n ∧ B=D= ∑ Di i =1 n n = ∑ (Y − Z ) i =1 i n i = Y−Z ∧ no indica explícitamente las razones de utilizar B = D y de la traducción de la exactitud requerida en σD2 . ∧ El uso de B = D se debe a las siguientes razones: Si D1, D2,…,Dn es una muestra aleatoria de D~ N(µD , σD2 ) , es decir, Di~ NI(µD , σD2 ) i=1,2,…,n entonces 50 E(Di ) = E( Yi − Zi ) = E( Yi ) − Zi = Zi + S( Yi ) − Zi = S( Yi ) E(Di ) = µD = S( Yi ) = B donde S( Yi ) denota el sesgo de Yi. Por lo tanto, un estimador insesgado de µD = B es ∧ ∧ µD = B = D , y ∧ E(Di − B) = E(Di − D) = E(Di ) − E(D) = µD − µ D = µ D − µD = 0 (30) ⎛ σ2 ⎞ ya que si D~ N(µD , σD2 ) entonces D ~ N⎜⎜ µD , D ⎟⎟ [ver teorema 6 página 241 del capítulo VI n ⎠ ⎝ ∧ de Mood et al. (1974b)]. Por (30) Di − B = Di − D es la corrección por SC o fijo B, el mismo para todos los valores Yi. Sea Wi = Di − D entonces Di − D = Di − 1 (D1 + ... + Di−1 + Di + Di+1 + ... + Dn ) n ⎛ 1⎞ ⎛ 1⎞ ⎛ 1⎞ ⎛ 1⎞ ⎛ 1⎞ = ⎜ − ⎟D1 + ... + ⎜ − ⎟Di −1 + ⎜1 − ⎟Di + ⎜ − ⎟Di +1 + ... + ⎜ − ⎟Dn ⎝ n⎠ ⎝ n⎠ ⎝ n⎠ ⎝ n⎠ ⎝ n⎠ es una combinación lineal de variables aleatorias independientes con distribución N(µD , σD2 ) y por el teorema 6.3 pp. 305-306 capítulo 6 de Wackerly (2002) [Sean Y1, Y2,…,Yn variables aleatorias independientes que tienen distribución normal con E(Yi)=µi y var(Yi)= σ 2 i i=1,2,…,n y a1,a2,…,an constantes. Si n U = ∑ ai Yi entonces i=1 n ⎛ n ⎞ U~ N⎜⎜ ∑ aiµi , ∑ ai2σi2 ⎟⎟ ], Wi se distribuye normal con media E( Wi ) = E(Di − D) = 0 [ver i =1 ⎝ i =1 ⎠ resultado (30)] y varianza Var ( Wi ) = Var (Di − D) ⎡⎛ 1 ⎞ ⎛ 1⎞ ⎤ ⎛ 1⎞ ⎛ 1⎞ ⎛ 1⎞ = Var ⎢⎜ − ⎟D1 + ... + ⎜ − ⎟Di −1 + ⎜1 − ⎟Di + ⎜ − ⎟Di +1 + ... + ⎜ − ⎟Dn ⎥ ⎝ n⎠ ⎦ ⎝ n⎠ ⎝ n⎠ ⎝ n⎠ ⎣⎝ n ⎠ 2 1 1 1 1 ⎛ 1⎞ = 2 σD2 + ... + 2 σD2 + ⎜1 − ⎟ σD2 + 2 σD2 + ... + 2 σD2 n n n n ⎝ n⎠ 51 2 ⎛ n − 1⎞ 2 ⎛ n − 1⎞ 2 ⎛ n − 1⎞ = ⎜ 2 ⎟σD2 + ⎜ ⎟ σD = ⎜ 2 ⎟σD (1 + n − 1) ⎝ n ⎠ ⎝ n ⎠ ⎝ n ⎠ ⎛ n − 1⎞ 2 =⎜ ⎟σD ⎝ n ⎠ n≥2 ⎛ ⎛ n − 1⎞ 2 ⎞ 2 Por lo que, Wi = (Di − D) ~ N⎜⎜ 0 , ⎜ ⎟σD ⎟⎟ . Así, para D~ N(µD , σD ) se sigue que ⎝ ⎝ n ⎠ ⎠ ⎛ ⎛ n − 1⎞ 2 ⎞ W = (D − D) ~ N⎜⎜ 0 , ⎜ ⎟σD ⎟⎟ . ⎝ ⎝ n ⎠ ⎠ 4.3.7.1. Pruebas estadísticas para la exactitud requerida ⎛ ⎛ n − 1⎞ 2 ⎞ Sea W1,W2,…,Wn una muestra aleatoria de la distribución N⎜⎜ 0 , σ2W = ⎜ ⎟σD ⎟⎟ ⎝ n ⎠ ⎠ ⎝ entonces por los mismos argumentos utilizados para la variable aleatoria D cuando D~ N(0, σD2 ) , la exactitud requerida traducida en la varianza indicada en (10), las hipótesis con el planteamiento original en (11), alternativo en (13) y la estadística de prueba en (15) corresponden respectivamente a (31), (32), (32a) y (33): σ2W ≤ e2 χ12,1− α (31) donde los valores e y α especificados por el usuario del modelo satisfacen la exactitud requerida P(D ≤ e ) ≥ 1 − α que se traduce en σD2 ≤ e2 una vez que es removido el SC χ12,1− α mediante la corrección Di − D . HSCW : σ2W ≤ 0 e2 χ12,1− α vs. H1SCW : σ2W > e2 χ12,1− α (32) ' HSCW : σ2W > 0 e2 χ12,1− α vs. H1SCW ' : σ2W ≤ e2 χ12,1− α (32a) n V SCW = ∑ i =1 n χ12,1− α n 2 Wi2 Wi2 = = ∑ Wi ∑ e2 σ2W0 e 2 i =1 i =1 χ12,1− α 52 = χ12,1− α e2 2 χ12,1− α ⎡ n 2 ⎤ 2 ∑ (Di − D) = 2 ⎢∑ Di − n(D) ⎥ ~ χn−1 i =1 e ⎣ i =1 ⎦ 2 n (33) ' o HSCW , se rechazará con un nivel de La hipótesis nula para SC HSCW 0 0 significación α’ si VcSCW > χn2−1,1− α ' o VcSCW ≤ χn2−1, α ' las cuales son pruebas de razón de verosimilitudes generalizada de tamaño α’ [ver pp. 431-432 capítulo IX de Mood et al. (1974c)]. VcSCW es el valor de la estadística de prueba V SCW que se obtendría al usar la información contenida en la muestra w1,w2,…,wn ( w i = di − d ) y los valores e y α especificados por el modelador o usuario del modelo como se indicó arriba. Por lo tanto, ' si HSCW no se rechaza o HSCW se rechaza con un nivel de significación α’ entonces el 0 0 modelo será considerado aceptable bajo los valores e, α. Los resultados (31), (32), (32a) y (33) pueden formularse en (34), (35), (35a) y (36) respectivamente cuando se considera D~ N(µD , σD2 ) y el modelo presenta SC. Esto se debe a que: σ 2 W ≤ e2 χ12,1− α e2 ⎛ n − 1⎞ 2 ⎜ ⎟σD ≤ 2 χ1,1− α ⎝ n ⎠ 2 ⎛ n ⎞ e σ ≤⎜ ⎟ 2 ⎝ n − 1⎠ χ1,1− α 2 D ( (34) ) donde e y α satisfacen P D − D ≤ e ≥ 1 − α . El resultado (34), también puede obtenerse con el mismo procedimiento empleado en la determinación del resultado (10). Así, si D~ N(µD , σD2 ) entonces ⎛ ⎛ n − 1⎞ 2 ⎞ W = (D − D) ~ N⎜⎜ 0 , ⎜ ⎟σD ⎟⎟ ⎝ ⎝ n ⎠ ⎠ D −D ⎛ n − 1⎞ 2 ⎟σD ⎜ ⎝ n ⎠ (a) ~N(0,1) (b) 53 ⎛ ⎜ ⎜ D−D ⎜ ⎜ ⎛⎜ n − 1⎞⎟σD2 ⎜ ⎝ n ⎠ ⎝ 2 ⎞ ⎟ 2 ⎟ ( W2 D − D) ~ χ12 = = ⎟ ⎛ n − 1⎞ 2 ⎛ n − 1⎞ 2 ⎟ ⎟ σD ⎟ σD ⎜ ⎜ ⎟ n n ⎠ ⎠ ⎝ ⎝ ⎠ (c) ⎞ ⎛ ⎟ ⎜ 2 W 2 ⎜ P ≤ χ1,1− α ⎟ = P χ12 ≤ χ12,1− α = 1 − α ⎟ ⎜ ⎛ n − 1⎞ 2 ⎟σ D ⎟ ⎜⎜ ⎠ ⎝⎝ n ⎠ (d) ( ) De P( W ≤ e ) ≥ 1 − α se tiene que ( 2 ) P W ≤ e2 ≥ 1 − α ( ) P W 2 ≤ e2 ≥ 1 − α ⎞ ⎛ ⎟ ⎜ 2 2 e W ⎟ ≥ 1− α ⎜ ≤ P ⎜ ⎛ n − 1⎞ 2 ⎛ n − 1⎞ 2 ⎟ ⎟σD ⎜ ⎟σD ⎟ ⎜⎜ ⎝ n ⎠ ⎠ ⎝⎝ n ⎠ ⎞ ⎛ ⎟ ⎜ 2 e 2 ⎟ ≥ 1− α ⎜ P χ1 ≤ ⎜ ⎛ n − 1⎞ 2 ⎟ ⎜ ⎟ σD ⎟ ⎜ ⎝ n ⎠ ⎠ ⎝ (e) Por lo tanto, de (d) y (e) se obtiene el resultado (34) e2 ≥ χ12,1− α ⎛ n − 1⎞ 2 ⎜ ⎟σD ⎝ n ⎠ ⎛ n − 1⎞ 2 ⎜ ⎟σD ⎝ n ⎠ ≤ 1 e2 χ12,1− α 2 ⎛ n ⎞ e σ ≤⎜ ⎟ 2 ⎝ n − 1⎠ χ1,1− α 2 D El siguiente paso es probar la hipótesis con el planteamiento original o alternativo: 2 ⎛ n ⎞ e 2 HSCD : σ ≤ ⎜ ⎟ 0 D 2 ⎝ n − 1⎠ χ1,1− α 2 ⎛ n ⎞ e H1SCD : σD2 > ⎜ ⎟ 2 ⎝ n − 1⎠ χ1,1− α vs. 54 (35) 2 ⎛ n ⎞ e ' 2 HSCD : σ > ⎜ ⎟ 2 0 D ⎝ n − 1⎠ χ1,1− α 2 ⎛ n ⎞ e H1SCD' : σD2 ≤ ⎜ ⎟ 2 ⎝ n − 1⎠ χ1,1− α vs. (35a) Con D~ N(µD , σD2 ) , el modelo presenta SC, e y α tales que satisfacen la exactitud ( ) 2 ⎛ n ⎞ e requerida P( W ≤ e ) = P D − D ≤ e ≥ 1 − α que se traduce en σ ≤ ⎜ ⎟ 2 , implican ⎝ n − 1⎠ χ1,1− α 2 D ' ( HSCD ) verdadera es: que la estadística de prueba bajo HSCD 0 0 n V SCD = ∑ (Di − D)2 ~ χ2 (Di − D)2 n =∑ i =1 n−1 σD2 0 i =1 2 ⎛ n ⎞ e donde σD2 0 = ⎜ ⎟ 2 . ⎝ n − 1⎠ χ1,1− α 2 ⎛ n − 1⎞ χ1,1− α n =⎜ ⎟ 2 ∑ (Di − D) ⎝ n ⎠ e i =1 2 2 ⎛ n ⎞ e ⎟ 2 ⎜ ⎝ n − 1⎠ χ1,1− α 2 ⎤ ⎛ n − 1⎞ χ1,1− α ⎡ n 2 2 ( ) =⎜ − D n D ~ χn− ⎟ 2 ⎢∑ i 1 ⎥ ⎝ n ⎠ e ⎣ i =1 ⎦ 2 HSCD 0 ' HSCD 0 o ⎛ n − 1⎞ χ1,1− α =⎜ ⎟ 2 ⎝ n ⎠ e 2 SCD c V se rechazará con un (36) nivel de significación α’ si 2 ⎡n 2 ⎤ 2 SCD 2 ( ) − d n d ∑ ⎢i = 1 i ⎥ > χn −1,1− α ' o Vc ≤ χ n −1, α ' las cuales son pruebas de ⎣ ⎦ razón de verosimilitudes generalizada de tamaño α’ [ver pp. 431-432 capítulo IX de ' Mood et al. (1974c)]. Por lo tanto, si HSCD no se rechaza o HSCD se rechaza con un nivel 0 0 de significación α’ entonces el modelo será considerado aceptable bajo los valores e y α. La distribución de V SCD puede obtenerse del teorema 8 pp. 243-245 capítulo VI de Mood et al. (1974b) [Si X1, X2,…,Xn es una muestra aleatoria de la distribución normal con media µ y varianza σ 2 entonces n ∑ i =1 entonces n ∑ i =1 (Di − D)2 ~ χ2 σ 2 D (Xi − X)2 ~ χ2 σ 2 n−1 ]. Como Di~ NI(µD , σD2 ) n n−1 . También Montgomery (2004d), señala que SS = ∑ (Di − D ) 2 i =1 es la suma de cuadrados corregida de las observaciones Di y si Di~ NI(µ, σ2 ) entonces n (Di − D) ~ χ2 . SS = ∑ n−1 2 σ σ2 i =1 2 55 Cuando el modelo presenta SC y D~ N(µD , σD2 ) , coincidiendo con Freese (1960), los valores e y α son tales que satisfacen la exactitud requerida P(D ≤ e ) ≥ 1 − α que se traduce en σD2 ≤ e2 una vez que es removido el sesgo, y bajo HSCW verdadera la 0 2 χ1,1− α estadística de prueba V SCW se distribuye ji-cuadrada con n-1 g.l. Ahora, si el modelo presenta SC, D~ N(µD , σD2 ) , e y α son tales que satisfacen la exactitud requerida ( ) 2 ⎛ n ⎞ e P( W ≤ e ) = P D − D ≤ e ≥ 1 − α que se traduce en σD2 ≤ ⎜ ⎟ 2 , implica que bajo ⎝ n − 1⎠ χ1,1− α verdadera la estadística de prueba a utilizar sería V SCD , la cual también se HSCD 0 distribuye ji-cuadrada con n-1 g.l. 4.3.8. Validación por intervalo de confianza empleando el error crítico en presencia de sesgo constante Freese (1960), Rennie y Wiant (1978), Reynolds (1984) y Barrales et al. (2004) no presentaron el error crítico cuando el modelo tiene SC o proporcional. Con D~ N(µD , σD2 ) y el modelo presenta SC, se tiene que ⎛ ⎛ n − 1⎞ 2 ⎞ W = (D − D) ~ N⎜⎜ 0 , ⎜ ⎟σD ⎟⎟ . Por los mismos argumentos empleados en la obtención ⎝ ⎝ n ⎠ ⎠ de los errores críticos E* y E** cuando el modelo no presenta sesgo [D~ N(0, σD2 ) ], los errores críticos para el planteamiento original y alternativo después de remover el SC corresponden respectivamente a: E∗SCW 1 2 ⎛ 2 ⎞ ⎛ 2 2 ⎞ ⎜ χ1,1− α ∑ (Di − D) ⎟ ⎜ χ1,1− α ∑ Wi2 ⎟ i =1 i =1 ⎟ ⎟ =⎜ =⎜ ⎟ ⎜ ⎜ χn2−1,1− α ' ⎟ χn2−1,1− α ' ⎟ ⎜ ⎟ ⎜ ⎠ ⎝ ⎠ ⎝ n n 56 1 2 1 2 ⎛ 2 ⎡n 2 ⎤ ⎞2 ⎜ χ1,1− α ⎢∑ Di − n(D) ⎥ ⎟ ⎜ ⎣ i =1 ⎦⎟ =⎜ 2 ⎟ χn −1,1− α ' ⎟⎟ ⎜⎜ ⎠ ⎝ 1 2 ⎛ 2 ⎞ ⎛ 2 2 ⎞ ⎜ χ1,1− α ∑ Wi2 ⎟ ⎜ χ1,1− α ∑ (Di − D) ⎟ i =1 i =1 ⎟ =⎜ ⎟ =⎜ ⎜ χn2−1, α ' ⎟ ⎜ ⎟ χn2−1, α ' ⎜ ⎟ ⎜ ⎟ ⎝ ⎠ ⎝ ⎠ n E∗∗ SCW n 1 2 1 2 ⎛ 2 ⎡n 2 ⎤ ⎞2 ⎜ χ1,1− α ⎢∑ Di − n(D) ⎥ ⎟ ⎜ ⎣i =1 ⎦⎟ =⎜ 2 ⎟ χn −1, α ' ⎟⎟ ⎜⎜ ⎠ ⎝ Si el usuario del modelo especifica un valor de e tal que e ≥ e∗SCW o e ≥ e∗∗ SCW entonces el modelo es considerado aceptable. Los valores e y α son tales que satisfacen la e2 exactitud requerida P(D ≤ e ) ≥ 1 − α que se traduce en σ ≤ 2 una vez que es χ1,1− α 2 D removido el SC. Si D~ N(µD , σD2 ) , el modelo presenta SC, e y α tales que satisfacen la exactitud ( ) 2 ⎛ n ⎞ e requerida P( W ≤ e ) = P D − D ≤ e ≥ 1 − α que se traduce en σD2 ≤ ⎜ ⎟ 2 , entonces ⎝ n − 1⎠ χ1,1− α el error crítico para el planteamiento alternativo puede obtenerse de la región de ' , es decir, rechazo de HSCD 0 VcSCD ≤ χn2−1, α ' 2 ⎛ n − 1⎞ χ1,1− α n 2 ⎟ 2 ∑ (di − d) ≤ χn −1, α ' ⎜ ⎝ n ⎠ e i =1 2 e2 χ12,1− α 1 1 ⎛ n ⎞ ≥ 2 ⎟ n ⎜ ⎝ n − 1⎠ ∑ (di − d)2 χn −1, α ' i =1 (di − d) χ2 ⎛ n − 1⎞ 1,1− α i∑ 2 =1 e ≥⎜ ⎟ χn2−1, α ' ⎝ n ⎠ n 2 1 n 2 2 ⎡ χ12,1− α ∑ (di − d) ⎤ − n 1 ⎢⎛ ⎥ ⎞ i =1 e ≥ ⎢⎜ ⎟ 2 ⎥ n ⎠ χn −1, α ' ⎢⎝ ⎥ ⎣ ⎦ (37) Por lo tanto, de (37) el error crítico corresponde a 1 E∗∗ SCD n 2 ⎤2 2 ⎡ ( ) χ D − D ∑ 1 , 1 i − α ⎢⎛ n − 1⎞ ⎥ i =1 = ⎢⎜ ⎟ 2 ⎥ n ⎠ χn −1, α ' ⎢⎝ ⎥ ⎣ ⎦ 57 Análogamente de VcSCD > χn2−1,1− α ' puede determinarse 1 n 2 ⎤2 2 ⎡ ( ) χ D − D ∑ 1 , 1 i − α ⎢⎛ n − 1⎞ ⎥ i =1 = ⎢⎜ ⎟ 2 ⎥ n ⎠ χn −1,1− α ' ⎢⎝ ⎥ ⎣ ⎦ E∗SCD Si el modelador o usuario del modelo especifica un valor de e tal que e ≥ e∗SCD o e ≥ e∗∗ SCD entonces el modelo es considerado aceptable. El ICB del (1-α’)100% para σD2 con D~ N(µD , σD2 ) y variable aleatoria pivote n H(σD2 ) = ∑ (D − D) i =1 2 i σD2 2 ~ χn− 1 es ⎛ n 2 ⎜ ∑ (Di − D) ⎜ i =1 , ⎜ χ2 α' n −1,1− ⎜ 2 ⎝ n ∑ (D − D) i =1 2 i χ2 n −1, α' 2 ⎞ ⎟ ⎟ ⎟ ⎟ ⎠ ⎞ ⎛ ⎜ (n − 1)SD2 (n − 1)SD2 ⎟ , 2 ⎟ ⎜ 2 χ α' ⎟ ⎜ χn −1,1− α ' n −1, 2 2 ⎠ ⎝ (38) y puede obtenerse de la misma manera como se determinó en páginas anteriores el ICB del (1-α’)100% para σD2 con D~ N(0, σD2 ) . De (38) se tiene que ⎛ n 2 ⎜ ∑ (Di − D) < σD2 < P⎜ i =1 2 ⎜ χ α' n −1, 1− ⎜ 2 ⎝ n ∑ (D − D) 2 i i =1 χ2 n −1, α' 2 ⎞ ⎟ ⎟ = 1 − α' ⎟ ⎟ ⎠ n n ⎛ 2 2 ⎞ ( ) ( − D D Di − D) ⎟ ⎜ ∑ ∑ i ⎛ n − 1 ⎞ i =1 ⎛ n − 1 ⎞ 2 ⎛ n − 1 ⎞ i =1 ⎟ = 1 − α' <⎜ P⎜ ⎜ ⎟ ⎟ ⎟ σD < ⎜ 2 2 ⎜⎝ n ⎠ χ ⎟ χ n n ⎠ ⎝ ⎠ ⎝ α' α' n −1,1− n −1, ⎜ ⎟ 2 2 ⎝ ⎠ n n ⎛ 2 ⎞ 2 ( ( Di − D) Di − D) ⎟ ⎜ ∑ ∑ ⎛ n − 1 ⎞ i =1 ⎛ n − 1 ⎞ i =1 ⎟ = 1 − α' < σ2W < ⎜ P⎜ ⎜ ⎟ ⎟ ⎜ ⎝ n ⎠ χ2 α' n ⎠ χ2 α' ⎟ ⎝ n −1, n −1,1− ⎜ ⎟ 2 2 ⎝ ⎠ 58 Por lo que el ICB del (1-α’)100% para σ2W es: n n ⎛ 2 2 ⎞ ( ( Di − D) Di − D) ⎟ ⎜ ∑ ∑ ⎛ n − 1 ⎞ i =1 ⎜ ⎛⎜ n − 1⎞⎟ i =1 ⎟ ,⎜ ⎟ 2 2 ⎜⎝ n ⎠ χ ⎟ χ n ⎠ ⎝ α' α' n −1,1− n −1, ⎜ ⎟ 2 2 ⎝ ⎠ ⎞ ⎛ ⎜ ⎛ n − 1⎞ (n − 1)SD2 ⎛ n − 1⎞ (n − 1)SD2 ⎟ ,⎜ ⎟ 2 ⎟ 2 ⎟ ⎜⎜ ⎜ ⎝ n ⎠ χn −1,1− α ' ⎝ n ⎠ χn −1, α ' ⎟ 2 2 ⎠ ⎝ (39) Considere el parámetro εSC definido por ( ) 1 2 2 1,1− α εSC = σ χ 2 W 1 ⎛ ⎛ n − 1⎞ 2 2 ⎞ 2 = ⎜⎜ ⎜ ⎟σD χ1,1− α ⎟⎟ ⎠ ⎝⎝ n ⎠ el cual es el cuantil 1-α de la distribución de W = D − D o equivalentemente (εSC ) es el 2 cuantil 1-α de la distribución de W 2 = (D − D ) ya que 2 ⎞ ⎛ W2 1 − α = P⎜⎜ 2 ≤ χ12,1− α ⎟⎟ ⎠ ⎝ σW ⎛ ⎛ n − 1⎞ 2 ⎞ (D − D) ~ χ2 ] W2 ⎜ ⎟ = [Si W = (D − D) ~ N⎜ 0 , ⎜ ⎟σD ⎟ entonces 1 ⎛ n − 1⎞ 2 ⎛ n − 1⎞ 2 ⎝ ⎝ n ⎠ ⎠ ⎜ ⎟σD ⎜ ⎟ σD ⎝ n ⎠ ⎝ n ⎠ 2 ⎛ ⎞ ⎜ ⎟ 2 W 2 ⎜ ≤ χ1,1− α ⎟ 1− α = P ⎜ ⎛ n − 1⎞ 2 ⎟ ⎟σD ⎜⎜ ⎟ ⎝⎝ n ⎠ ⎠ ⎛ ⎛ n − 1⎞ 2 2 ⎞ = P⎜⎜ W 2 ≤ ⎜ ⎟σD χ1,1− α ⎟⎟ ⎝ n ⎠ ⎝ ⎠ ( = P W 2 ≤ (εSC )2 ( 2 ) = P W ≤ (εSC )2 ) ( = P( W ≤ εSC ) = P D − D ≤ εSC 59 ) ( ) Note que εSC = τ σD2 1 1 ⎛ ⎛ n − 1⎞ 2 2 ⎞ 2 ⎛ n − 1⎞ 2 2 2 = ⎜⎜ ⎜ ⎟ σD χ1,1− α ⎟σD χ1,1− α ⎟⎟ = ⎜ ⎝ n ⎠ ⎠ ⎝⎝ n ⎠ ( ) 1 2 1 ⎛ n − 1⎞ 2 =⎜ ⎟ ε . Un ICB del (1⎝ n ⎠ α’)100% para ε SC a partir del ICB del (1-α’)100% para σD2 [resultado (38)] y con ( ) τ σD2 = εSC función monótona creciente, está dado por ⎛ n ⎛ n 2 ⎞ 2 ⎞ ⎜ ∑ (Di − D) ⎟ ⎜ ∑ (Di − D) ⎟ ⎟ < τ σ 2 < τ ⎜ i =1 ⎟ τ ⎜ i =1 2 D 2 ⎜ χ ⎟ ⎜ ⎟ χ α' α' n −1, 1− n −1, ⎜ ⎟ ⎜ ⎟ 2 2 ⎝ ⎠ ⎝ ⎠ ( ) 1 2 ⎛ ⎛ (Di − D)2χ12, 1− α ⎞⎟ (Di − D)2χ12, 1− α ⎞⎟ ⎜ ⎜ ∑ ∑ − − n 1 n 1 ⎞ i =1 ⎞ i =1 ⎜ ⎛⎜ ⎟ < ε < ⎜ ⎛⎜ ⎟ ⎟ ⎟ SC 2 2 ⎜⎝ n ⎠ ⎟ ⎜ ⎟ χ χ α' ⎝ n ⎠ α' n −1, n −1, 1− ⎜ ⎟ ⎜ ⎟ 2 2 ⎝ ⎠ ⎝ ⎠ n n 1 2 ∗ ∗∗ EISC < εSC < EISC 1 ∗ ∗∗ , EISC ) es un ICB del (1-α’)100% para εSC Por lo tanto, ( EISC ⎛ ⎛ n − 1⎞ 2 2 ⎞ 2 = ⎜⎜ ⎜ ⎟σD χ1,1− α ⎟⎟ , el ⎠ ⎝⎝ n ⎠ ∗ ∗∗ cuantil 1-α de la distribución de D − D . EISC y EISC son los límites de confianza inferior y superior del intervalo para ε SC cuando el modelo presenta SC, y corresponden a los errores críticos que se obtienen de las regiones de rechazo para las hipótesis nulas 2 2 ⎛ n ⎞ e ⎛ n ⎞ e y σD2 > ⎜ respectivamente, con la diferencia de que α’ σD2 ≤ ⎜ ⎟ 2 ⎟ 2 ⎝ n − 1⎠ χ1,1− α ⎝ n − 1⎠ χ1,1− α corresponde a α' en sus expresiones. 2 Pueden emplearse, con el error crítico correspondiente, el mismo tipo de gráficas propuestas para visualizar la validación de un modelo en predicción de varias variables. En la comparación de dos o más modelos en predicción del mismo sistema, se emplearía el error crítico correspondiente según el modelo presente SC o no tenga sesgo. 60 4.3.9. Validación de modelos basada en el valor absoluto del error en presencia de sesgo proporcional Sea el caso cuando el modelo presenta sesgo en sus pronósticos zi para los correspondientes valores observados yi y el sesgo es proporcional (SP), es decir, la magnitud del sesgo (di=yi-zi) crece o decrece directamente con los valores predichos zi. También para este caso Freese (1960), no indica explícitamente la traducción de la exactitud requerida en la Var (D) = σD2 y las razones de emplear los residuos de una regresión lineal de los valores yi sobre los valores zi (en su notación xi sobre µi) para la corrección por SP. Sea Yi~ NI( Zi + S( Yi ), σ2 ) i=1,2,…,n donde S(Yi) denota el sesgo de Yi y es proporcional como se indico. Así, E( Yi ) = Zi + S( Yi ) E( Yi ) − Zi = S( Yi ) E( Yi − Zi ) = S( Yi ) E(Di ) = µDi = S( Yi ) = R Para el caso en que el sesgo (di=yi-zi) crece o decrece directamente con los valores ∧ ∧ ∧ ∧ predichos (zi), un estimador de µDi = S( Yi ) = R es µDi = R = β0 + β1 Zi . Esto se debe a que para el conjunto (Di, Zi) i=1,2,…,n relacionados por E(Di ) = β0 + β1Zi y Var(Di)=σ2 con Di~ NI(β0 + β1Zi , σ2 ) , es Di = β0 + β1Zi + εRi decir, donde E(εRi ) = 0 ∧ y ∧ Var (εRi ) = σ2 = σR2 , se sigue que εRi = Di − (β0 + β1Zi ) = [Di − E(Di )] ~ NI(0, σR2 ) . Si β0 y β1 son los estimadores por mínimos cuadrados de los parámetros β0 y β1, entonces ∧ ∧ ∧ ∧ ∧ ∧ ∧ ∧ ∧ µDi = R = Di = β0 + β1 Zi . Por lo tanto, Di − R = Di − Di = Di − (β0 + β1 Zi ) es la corrección por ∧ SP (di crece o decrece directamente con zi). La esperanza de Di − Di es ∧ ⎛ ⎞ ⎛∧⎞ ⎛∧ ∧ ⎞ E⎜ Di − Di ⎟ = E(Di ) − E⎜ Di ⎟ = β0 + β1Zi − E⎜ β0 + β1 Zi ⎟ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠ 61 ⎛∧⎞ ⎛∧⎞ = β0 + β1Zi − E⎜ β0 ⎟ − E⎜ β1 ⎟Zi ⎝ ⎠ ⎝ ⎠ = β0 + β1Zi − β0 − β1Zi = 0 ∧ ∧ [Los estimadores por mínimos cuadrados β0 y β1 son estimadores insesgados de los parámetros β0 y β1 del modelo. Ver pp. 19-20 de Montgomery et al. (2002c)]. Para el caso de que el modelo presente SP se requiere que los residuales ∧ eRi = di − di que son los estimaciones de los errores del modelo y que se obtienen de ∧ ∧ εRi = Di − Di , provengan de una distribución normal con media cero y varianza de los ∧ errores constante, es decir, εRi ~ NI(0, σ2 = σR2 ) . Cada valor di es corregido al restársele ∧ ∧ di , es decir, los residuales eRi = di − di representan la corrección cuando el sesgo (di) crece o decrece directamente con los valores zi. Si εR ~ N(0, σ2 = σR2 ) entonces εR σR2 ~N(0,1) ⎛ ε ⎜ R ⎜ σ2 ⎝ R [a] 2 2 ⎞ ⎟ = εR ~ χ 2 1 ⎟ σR2 ⎠ [b] ⎛ ε2 ⎞ P⎜⎜ R2 ≤ χ12,1− α ⎟⎟ = P χ12 ≤ χ12,1− α = 1 − α ⎝ σR ⎠ ( ) [c] Para e y α tales que satisfacen P( εR ≤ e ) ≥ 1 − α se tiene que ( ) 2 P εR ≤ e 2 ≥ 1 − α ( ) P (εR ) ≤ e2 ≥ 1 − α 2 ⎛ εR2 e2 ⎞ P⎜⎜ 2 ≤ 2 ⎟⎟ ≥ 1 − α ⎝ σR σR ⎠ ⎛ e2 ⎞ P⎜⎜ χ12 ≤ 2 ⎟⎟ ≥ 1 − α σR ⎠ ⎝ [d] Por lo tanto, por [c] y [d] se tiene que 62 e2 ≥ χ12,1− α 2 σR σR2 1 ≤ 2 2 χ1,1− α e σR2 ≤ e2 χ12,1− α 4.3.9.1. Pruebas estadísticas para la exactitud requerida El siguiente paso es probar la hipótesis con el planteamiento original o alternativo: 2 HSP 0 : σR ≤ e2 χ12,1− α vs. H1SP : σR2 > ' HSP : σR2 > 0 e2 χ12,1− α vs. H1SP ' : σR2 ≤ e2 χ12,1− α e2 (40) χ12,1− α Note que con εRi ~ NI(0, σ2 = σR2 ) , e y α tales que satisfacen la exactitud requerida P( εR ≤ e ) ≥ 1 − α que se traduce en σR2 ≤ e2 , coincide con los supuestos: χ12,1− α εRi ~ NI(0, σ2 = σR2 ) , e y α tales que satisfacen la exactitud requerida P(D ≤ e ) ≥ 1 − α que e2 una vez que es removido el SP mediante la corrección se traduce en σ ≤ 2 χ1,1− α 2 D ∧ ∧ ∧ ∧ ' εRi = Di − Di = Di − (β0 + β1 Zi ) . Así, con los últimos supuestos y bajo HSP ( HSP 0 0 ) verdadera, la estadística de prueba es: 2 V SP = ∧ 2 ( )= (n − 2) σ σ02 (n − 2) 2 ∧ ⎛ ⎞ − D D ⎜ ∑ i i⎟ = i =1 ⎝ 2 ⎠ = σ0 n n ∧ 1 ⎛ ⎞ ⎜ Di − Di ⎟ 2 ∑ (n − 2) i =1 ⎝ ⎠ ~ χ 2 donde σ 2 = e n−2 0 σ02 χ 12, 1 − α 2 ⎛ ∧ ⎞ ⎜ εRi ⎟ ∑ ⎠ = (SCE )D i =1 ⎝ 2 e2 σ0 χ12,1− α n 63 = χ12,1− α e 2 (SCE)D = donde (SCE)D y (CME)D = (SCE)D n−2 χ12,1− α e 2 (n − 2)(CME)D ~ χn2− 2 (41) corresponden respectivamente a la suma de cuadrados del error y al cuadrado medio del error cuando la variable dependiente es D con variable regresora Z, es decir, del modelo Di = β0 + β1Zi + εRi con εRi ~ NI(0, σ2 = σR2 ) . ( ) ∧ (n − 2) σ2 La distribución de puede consultarse en el Apéndice C (C.3.2) pp. 537-538 σR2 de Montgomery et al. (2002d), en las pp. 487-494 del capítulo X de Mood et al. (1974e) o en las pp. 204-205 del capítulo 6 de Graybill (1976). SP ' HSP se rechazará con un nivel de significación α’ si VcSP > χn2− 2,1− α ' o 0 o H0 VcSP ≤ χn2− 2, α ' , donde VcSP es el valor de la estadística de prueba que se obtendría al usar no se rechaza o la información de la muestra (Di, Zi) i=1,2,…,n. Por lo tanto, si HSP 0 ’ ' HSP 0 se rechaza con un nivel de significación α entonces el modelo será considerado aceptable bajo los valores e y α. Si el modelo presenta SP, Freese (1960) en la determinación de la estadística de prueba ( V SP e2 ), utilizó σ ≤ 2 para la exactitud requerida P(D ≤ e ) ≥ 1 − α que se χ1,1− α 2 e2 traduce precisamente en σ ≤ 2 una vez que es removido el sesgo, la cual coincide χ1,1− α 2 con los supuestos εRi ~ NI(0, σ2 = σR2 ) , e y α tales que satisfacen P( εR ≤ e ) ≥ 1 − α . Note que para este caso (SCE)D es la suma de cuadrados del error del modelo ∧ ∧ ∧ estimado Di = β0 + β1 Zi . Freese (1960) señala que si el modelo presenta SP, es decir, la magnitud del sesgo (en su notación di=xi-µi) crece o decrece directamente con los valores reales (en su notación µi), la estadística de prueba con Xi~ N(µi , σ2 ) es ∧ ∧ ∧ SCE 2 ~ χ donde la SCE se obtiene del modelo estimado X = β + β − i 0 1 µi . Por los n 2 σ2 64 resultados obtenidos en esta sección, la SCE corresponde a la obtenida del modelo ∧ ∧ ∧ estimado Di = β01 + β11 µi (en su notación). Si se emplea la SCE del modelo estimado ∧ ∧ ∧ Xi = β0 + β1 µi debe tomarse en cuenta lo siguiente: Di = Xi − µi = β01 + β11µi + εi Xi = β01 + β11µi + µi + εi Xi = β01 + (β11 + 1)µi + εi Por lo que β0 = β01 , β1 = β11 + 1 y la SCE al emplear como variable dependiente Xi con ∧ ∧ ⎛ ∧ ⎞ variable regresora µi corresponde al modelo estimado Xi = β0 + ⎜ β11 + 1⎟µi . ⎝ ⎠ 4.3.10. Validación por intervalo de confianza empleando el error crítico en presencia de sesgo proporcional Freese (1960), Rennie y Wiant (1978), Reynolds (1984) y Barrales et al. (2004) no presentaron el error crítico cuando el modelo tiene SC o SP. Si la magnitud del sesgo (di=yi-zi) crece o decrece directamente con los valores predichos (zi) y se cumple el supuesto εRi ~ NI(0, σ2 = σR2 ) entonces por los mismos argumentos empleados en la obtención de los errores críticos E* y E** cuando el modelo no presenta sesgo [D~ N(0, σD2 ) ], los errores críticos después de remover el SP corresponden respectivamente a: 1 E∗SP 2 2 n ∧ ⎛ 2 ⎞ ⎛ ⎞ 1 1 ⎜ χ1,1− α ∑ ⎜ Di − Di ⎟ ⎟ 2 2 2 2 ⎛ ⎞ ⎛ ⎞ ( ) ( ) SCE ( n 2 ) CME χ − χ ⎜ ⎟ D D ⎠ i =1 ⎝ ⎟ ⎜ 1,1− α ⎟ = ⎜ 1,1− α 2 =⎜ ⎟ = ⎜ χ2 ⎜ ⎟ ⎟ χn2− 2,1− α ' χ − − α − − α n 2 , 1 ' n 2 , 1 ' ⎝ ⎠ ⎝ ⎠ ⎜ ⎟ ⎜ ⎟ ⎝ ⎠ E∗∗ SP 2 2 n ∧ ⎛ 2 ⎞ 1 1 ⎜ χ1,1− α ∑ ⎛⎜ Di − Di ⎞⎟ ⎟ 2 2 2 2 ⎛ ⎞ ⎛ ⎞ ( ) ( ) SCE ( n 2 ) CME χ − χ ⎜ D D ⎠ ⎟ = ⎜ 1,1− α i =1 ⎝ ⎟ ⎟ = ⎜ 1,1− α 2 =⎜ 2 2 ⎟ ⎜ ⎟ ⎜ ⎟ χn − 2, α ' χ χ n − 2, α ' n − 2, α ' ⎝ ⎠ ⎝ ⎠ ⎜ ⎟ ⎜ ⎟ ⎝ ⎠ 1 65 donde E∗SP .y E∗∗ SP denotan los errores críticos basados en el planteamiento original y alternativo respectivamente cuando el modelo presenta SP. Si el usuario del modelo especifica un valor de e tal que e ≥ e∗SP o e ≥ e∗∗ SP entonces el modelo es considerado aceptable. Los valores e y α son tales que satisfacen la exactitud requerida P(D ≤ e ) ≥ 1 − α que se traduce en σD2 ≤ ∧ ∧ ∧ e2 una vez que es removido el SP mediante χ12,1− α ∧ la corrección εRi = Di − Di = Di − (β0 + β1 Zi ) . El ICB del (1-α’)100% para σR2 con εRi ~ NI(0, σ2 = σR2 ) y variable aleatoria pivote H(σD2 ) = ( ) ∧ 2 (n − 2) σ σR2 2 ∧ ⎛ ⎞ D − D ⎜ i ∑ i⎟ (SCE)D ~ χn2− 2 es = i =1 ⎝ 2 ⎠ = 2 σR σR n ⎞ ⎛ ⎜ (SCE)D (SCE)D ⎟ , 2 ⎟ ⎜ 2 ⎜ χn − 2,1− α ' χn − 2, α ' ⎟ 2 2 ⎠ ⎝ (SCE)D (SCE) < σR2 < 2 D 2 χ χ α' α' n − 2,1− n − 2, 2 (42) 2 y puede obtenerse de la misma manera como se determinó el resultado (24), el ICB del (1-α’)100% para σD2 con D~ N(0, σD2 ) . Considere el parámetro εSP definido por ( εSP = σR2 χ12,1− α ) 1 2 el cual corresponde al cuantil 1-α de la distribución de εR o equivalentemente (εSP ) es 2 el cuantil 1-α de la distribución de εR2 ya que ⎛ ε2 ⎞ 1 − α = P⎜⎜ R2 ≤ χ12,1− α ⎟⎟ ⎝ σR ⎠ [Si εR ~ N(0, σ2 = σR2 ) entonces ( ⎛ ε ⎜ R ~N(0,1) y 2 ⎜ σ2 σR ⎝ R εR 1 − α = P εR2 ≤ σR2 χ12,1− α ) 66 2 2 ⎞ ⎟ = εR ~ χ 2 ] 1 ⎟ σR2 ⎠ ( = P(| ε 2 = P εR2 ≤ εSP R ) 2 |2 ≤ εSP ) = P(| εR |≤ εSP ) Un ICB del (1-α’)100% para εSP a partir del ICB del (1-α’)100% para σR2 con ( ) ( τ σR2 = σR2 χ12,1−α ) 1 2 = ε SP función monótona creciente, está dado por ⎞ ⎛ ⎞ ⎛ ⎜ (SCE)D ⎟ ⎜ (SCE)D ⎟ 2 τ⎜ 2 ⎟ ⎟ < τ σR < τ⎜ 2 χ α ' ⎜ χn − 2, α ' ⎟ ⎜ n − 2,1− ⎟ 2 ⎠ 2 ⎠ ⎝ ⎝ ( ) χ12,1− α (SCE)D χ2 n − 2,1− < εSP < α' 2 χ12,1− α (SCE)D χ2 n − 2, α' 2 ∗ ∗∗ EISP < εSP < EISP ( ) 1 ∗ ∗∗ , EISP ) es un ICB del (1-α’)100% para εSP = σR2 χ12,1− α 2 , el cuantil 1-α Por lo tanto, ( EISP ∗ ∗∗ de la distribución de εR . EISP y EISP son los límites de confianza inferior y superior del intervalo para εSP cuando el modelo presenta SP y corresponden a los errores críticos que se obtienen de las regiones de rechazo para las hipótesis nulas σD2 ≤ σD2 > e2 y χ12,1− α e2 α' respectivamente, con la diferencia de que α’ corresponde a en sus χ12,1− α 2 ∗∗ ∗∗ expresiones. Para distinguirlos se utilizó la notación E∗∗ SP y EISP , de modo que ESP ∗∗ el denota al error crítico obtenido de la región de rechazo de la prueba estadística y EISP ∗ es que en el error crítico empleado en el ICB. La diferencia entre E∗SP y EISP denominador se tienen respectivamente χn2− 2, 1− α ' y χ 2 α' n − 2, 1− 2 ∗∗ . Para E∗∗ SP y EISP la diferencia se debe a que en el denominador tienen respectivamente χn2− 2, α ' y χ 2 n − 2, 67 α' 2 . Pueden utilizarse, con el error crítico correspondiente, el mismo tipo de gráficas propuestas para visualizar la validación de un modelo en predicción de varias variables. En la comparación de dos o más modelos en predicción del mismo sistema, se emplearía el error crítico correspondiente según el modelo presente sesgo proporcional, constante o no tenga sesgo. 4.3.11. Análisis exploratorio e identificación del sesgo Un análisis gráfico exploratorio de los valores predichos contra los observados y de los predichos contra el sesgo, resulta fundamental para visualizar la exactitud, precisión e identificación del tipo de sesgo. Similarmente al procedimiento empleado por Barrales et al. (2004) para ∧ identificar la presencia de sesgo, éste puede identificarse por la magnitud de B = D y por la forma en que se distribuyen los puntos provenientes de graficar en un plano de ∧ coordenadas los puntos (zi, di) i=1,2,…,n. El SC es reconocido por un valor de B = D muy diferente de cero y al graficar los puntos (zi, di) se forme una banda horizontal centrada alrededor de D , con una distribución sistemática a ser positivos o negativos (puntos arriba y debajo de la recta d = d ). El SP es reconocido cuando los puntos del gráfico formen una banda con una tendencia lineal positiva o negativa. Adicionalmente para verificar que D es “muy diferente de cero”, con D distribuida aproximadamente normal, puede calcularse un ICB del (1-α)100% para la E(D): ⎛ ⎞ SD ⎛ ⎞ SD ⎟ ⎟ < E(D) < D + ⎜⎜ t D − ⎜⎜ t α ⎟ α ⎟ ⎝ n −1, 1− 2 ⎠ n ⎝ n −1, 1− 2 ⎠ n n donde D = ∑D i =1 n i n , SD2 = ∑ (D − D) i =1 2 i n −1 y t α n −1, 1− 2 es el cuantil 1 − α de la distribución t con n2 ⎡ ⎛ ⎞ α⎤ ⎟ 1 = − 1 g.l. ⎢P⎜⎜ t n −1 ≤ t ⎥. α n −1, 1− ⎟ 2 ⎦⎥ 2 ⎠ ⎣⎢ ⎝ Un análisis de regresión lineal simple del sesgo sobre los simulados ( Di = β0 + β1Zi + εRi ), contribuiría a determinar SP de una manera más objetiva en cuanto 68 a la percepción de que los puntos (zi, di) del gráfico de dispersión formen una banda con una tendencia lineal positiva o negativa. 69 5. RESULTADOS Y DISCUSIÓN Una vez expuestos y justificados los desarrollos estadísticos para la validación de modelos en el capítulo anterior, es este capítulo se presenta y discute la metodología para aplicar el procedimiento de Freese con sus modificaciones y extensiones, así como un ejemplo de su aplicación a la validación del modelo Wakax POS en predicción de la ganancia de peso promedio por día. Adicionalmente se presenta la validación para la predicción de la materia seca, ácidos grasos volátiles, acetato, propionato y butirato en el Rumen y Ciego. Esta validación se hizo por medio de métodos gráficos y de medidas basadas en la comparación entre los valores observados y los predichos. 5.1. Procedimientos estadísticos para la validación de modelos basados en el planteamiento de Freese La validación de modelos mecanísticos basada en: (i) el procedimiento original de Freese (1960), (ii) los planteamientos de Rennie y Wiant (1978), Reynolds (1984), y (iii) las modificaciones y extensiones presentadas en este trabajo, constituyen un método estadístico formado por pruebas de hipótesis e intervalos de confianza, las cuales representan una alternativa inferencial para determinar si las salidas del modelo están suficientemente próximas a los valores observados del sistema real, es decir, cuán bien el modelo se comporta en predicción del sistema. Coincidiendo con Barrales et al. (2004), estos procedimientos inferenciales permiten determinar cuán bien un modelo se comporta en predecir los valores observados del sistema real, así mismo, permiten estudiar datos provenientes de modelos que presenten o no sesgo en sus pronósticos, y donde el máximo error admisible es expresado en las mismas unidades del valor real. La validación de modelos mediante el planteamiento de Freese (1960) y las extensiones presentadas en este trabajo no requieren el supuesto de que Y se relacione linealmente con Z, además de que no es necesario para la comparación entre Y y Z. Adicionalmente, no se ha reportado con regresión una prueba estadística para la 70 exactitud requerida (P(D ≤ e) ≥ 1 − α ) por el modelador o usuario del modelo en presencia o no de SC o SP. 5.2. Validación de modelos basada en el valor absoluto del error en ausencia de sesgo Freese (1960), no indicó explícitamente la traducción de la exactitud requerida P(D ≤ e ) ≥ 1 − α en σD2 ≤ e2 , aunque asume como señala también Reynolds (1984) χ12,1− α (µD = 0) que D~N(0, σD2 ). Es decir, el modelo presenta predicción insesgada precisión de los errores de predicción (σ ) 2 D debe cumplir σD2 ≤ y la e2 para que la χ12,1− α exactitud requerida se satisfaga y el modelo sea considerado aceptable o suficientemente confiable para predicción. 5.2.1. Pruebas estadísticas para la exactitud requerida El siguiente paso es probar las hipótesis con el planteamiento original H0 : σD2 ≤ e2 χ12,1− α (Freese, 1960) o alternativo H'0 : σD2 > e2 χ12,1− α (Reynolds, 1984). Si D~N(0, σ ) la estadística de prueba bajo H0 o H verdadera es V = ' 0 2 D ' 0 H0 o H ’ se rechazará con un nivel de significación α si Vc = χ12,1−α e2 χ12,1− α e2 n 2 2 ∑ D i ~ χn . La i =1 n 2 2 ∑ di > χn,1− α ' o i =1 Vc ≤ χn2, α ' , la cual corresponde a la prueba uniformemente más potente de tamaño α’. Por lo tanto, si H0 no se rechaza o H'0 se rechaza entonces el modelo es considerado aceptable para predicción. Como el denominador de la estadística de prueba (V) es e2 y χn2,1− α ' > χn2, α ' cuando α ' < 0.5 , se sigue que al incrementar los valores de e la estadística de prueba disminuye conduciendo al rechazo de H'0 , por lo que el planteamiento alternativo es 71 más conservador en el sentido que permite un valor más grande de e para rechazar H'0 . Reynolds (1984), señala que la prueba estadística de H'0 es más conservadora y probablemente preferible al planteamiento original por más modeladores quienes necesitan estar razonablemente seguros que el modelo cumplirá con sus requerimientos de exactitud. El inconveniente de aplicar el planteamiento original es la ambigüedad que se presenta al no rechazar a H0, ya que lo que se puede inferir es que los datos no proporcionan suficiente evidencia para rechazarla, que los datos no apoyan suficientemente a H1 y no que se acepte la declaración establecida en H0. Una opción es presentar los resultados de la prueba a través del valor P para tener el nivel de significación alcanzado en la prueba. 5.3. Validación de modelos basada en el porcentaje del error en ausencia de sesgo El porcentaje de error D 100 que señala Reynolds (1984), no es estrictamente Y un porcentaje y puede observarse en los valores posibles de di . También bajo los yi supuestos Y~N(Z, σ2Y ) entonces D~N(0, σ2Y = σD2 ), la distribución de D tiene soporte Y ℜ − {1} y no se distribuye normal. Por lo que, el “porcentaje de error” bajo los supuestos señalados, es un enfoque no apropiado para medir exactitud en comparación con el error absoluto |D|. En el caso del planteamiento original de Freese, si tiene sentido hablar del “porcentaje de error”. Freese (1960) señala que si Xi~N(µi,σ2) entonces n ∑ (X − µ ) i =1 i i σ2 2 2 ⎛ X − µi ⎞ 2 = ∑⎜ i ⎟ ~ χn , donde Xi es el valor estimado por la nueva técnica para σ ⎠ i =1 ⎝ n la i-ésima unidad experimental, µi es el valor “verdadero o correcto” medido con la técnica estándar para la i-ésima unidad experimental y σ2 es la exactitud requerida, es e2 p2 2 o σ ≤ 2 para el caso del error absoluto o del “porcentaje del valor decir, σ ≤ 2 χ1,1− α χ1,1− α 2 verdadero o correcto” respectivamente. Por lo tanto, la expresión del error como un 72 ⎛ ⎡ σ ⎤2 ⎞ Di Xi − µi = ~ N⎜ 0, ⎢ ⎥ ⎟ , tiene una ⎜ ⎣ µi ⎦ ⎟ µi µi ⎝ ⎠ porcentaje del valor verdadero o correcto interpretación práctica como la exactitud requerida expresada en términos relativos del valor real en vez de unidades absolutas del valor real. De aquí en adelante la discusión de los resultados obtenidos sólo se relaciona a cuando la exactitud requerida es expresada en unidades absolutas del valor real u observado (Yi), es decir, con el valor absoluto del error [P(D ≤ e ) ≥ 1 − α ] . 5.4. Validación por intervalo de confianza empleando el error crítico en ausencia de sesgo En el planteamiento de Freese diferentes usuarios del modelo pueden tener distintas necesidades de exactitud, la cual conduce a diferentes valores de e. Rennie y Wiant (1978) y Ek y Monserud (1979), han tratado este problema calculando un error máximo anticipado o error crítico (e*) el cual es el valor más pequeño de e que conducirá al no rechazo de H0. Reynolds (1984), planteó un enfoque conservador y determinó otro error crítico (e**) el cual es el valor más pequeño de e que conducirá al rechazo de H'0 , y dio una interpretación del error crítico en términos de un ICB. Los errores críticos e* y e** se determinaron de la región de rechazo para H0 y 12 n ⎛ ⎞ H respectivamente, e < e* = ⎜⎜ χ12,1− α ∑ di2 χn2,1− α ' ⎟⎟ i =1 ⎝ ⎠ ' 0 12 n ⎛ ⎞ y e ≥ e * * = ⎜⎜ χ12,1− α ∑ di2 χn2, α ' ⎟⎟ . Por i =1 ⎝ ⎠ lo tanto, si el modelador o usuario del modelo especifica un valor de e tal que e≥e* o e≥e** entonces el modelo es considerado adecuado. Rennie y Wiant (1978) y Reynolds (1984), no indicaron cual es la decisión cuando e=e*, aunque al señalar que H0 se rechaza cuando Vc > χn2,1− α ' entonces la región de no rechazo es Vc ≤ χn2,1− α ' por lo que si e=e* la decisión será que el modelo es adecuado. 73 Análogamente al uso como un índice que le dieron al error crítico (E*) Ek y 12 n ⎛ ⎞ Monserud (1979), el error crítico E * * = ⎜⎜ χ12,1− α ∑ Di2 χn2, α ' ⎟⎟ también es una estadística i =1 ⎝ ⎠ para comparar dos modelos, de tal manera que el modelo con el menor error crítico (e**) es el mejor modelo. Cuando los errores críticos e* o e** se utilizan para determinar si un modelo satisface la exactitud requerida o para comparar dos o más modelos, la validación se reduce a calcular el error máximo anticipado o error crítico, en donde el modelador decide si el modelo es aceptable en predicción del sistema o que un modelo es mejor que otro, al comparar el error crítico con la exactitud requerida (e) bajo los valores α y α’ especificados con anticipación. Lo anterior implica una buena comprensión del sistema por parte del modelador o usuario del modelo para establecer la exactitud requerida. Barrales et al. (2004), señalan que conceptualmente el error límite (e) y el error crítico (e*) representan lo mismo, pero con la diferencia de que e se establece a priori por el modelador, mientras que e* se calcula a posteriori. Los errores críticos e* y e** son similares con excepción de sus denominadores χn2,1−α ' y χn2, α ' respectivamente. Si α ' = 1 2 entonces χn2,1− α ' = χn2, α ' y e*=e**. Si α ' < 1 2 entonces e*<e**. Así, para un valor α ' < 1 2 y e tal que e*<e<e** se sigue que el modelo es adecuado empleando la estadística E* y no lo es con la estadística E**. Esto indica que la prueba estadística para H'0 y por consiguiente E** representan un planteamiento más conservador que el planteamiento original de Freese (1960), en el sentido que permite un valor más grande de e para inferir que el modelo es aceptable, la cual desde el punto de vista de los modeladores o usuarios del modelo no es muy práctico, ya que lo que se quiere es tener un valor de e suficientemente pequeño tal que cumpla P(D ≤ e ) ≥ 1 − α con una probabilidad alta. Reynolds (1984) determinó en términos de los errores críticos un ICB (E*, E**) ( del (1-2α’)100% para el parámetro ε = σD2 χ12,1− α ) 12 , el cuantil 1-α de la distribución de |D| o equivalentemente ε2 corresponde al cuantil 1-α de la distribución de D2. Para ello combinó dos intervalos de confianza unilaterales para ε. Si se reemplaza α’ por α’/2 en 74 las expresiones para E* y E** se obtiene ( EI∗ , EI∗∗ ) un ICB del (1-α’)100% para ε. El ICB ( ) estimado eI* , eI* * significa que se tiene confianza en un (1-α’)100% que el punto de la distribución |D| que tiene debajo el (1-α)100% de los errores absolutos está localizado en alguna parte de dicho intervalo. En este trabajo se presentó un procedimiento alternativo al Reynolds (1984) para obtener el ICB ( EI∗ , EI∗∗ ) del (1-α’)100% para ε. Con el supuesto D~N(0, σD2 ), n ⎛ n 2 2 ⎞ ⎜ ∑ Di χ α ' , ∑ Di2 χ 2 α ' ⎟ es un ICB del (1-α’)100% para σD2 . Del ICB del (1-α’)100% ⎜ n,1− n, ⎟ i =1 2 2 ⎠ ⎝ i =1 ( ) ( para σD2 y de que la función τ σD2 = σD2 χ12,1− α ) 1 2 = ε es monótona creciente, se sigue que: ⎛ n ⎞ ⎛ n ⎞ τ ⎜⎜ ∑ Di2 χ 2 α ' ⎟⎟ < τ σD2 < τ ⎜⎜ ∑ Di2 χ 2 α ' ⎟⎟ n, n,1− 2 ⎠ 2 ⎠ ⎝ i =1 ⎝ i =1 ( ) 12 ⎛ n 2 2 ⎞ ⎜ ∑ Di χ1,1− α χ 2 α ' ⎟ ⎜ n,1− ⎟ 2 ⎠ ⎝ i =1 12 ⎛ n ⎞ < ε < ⎜⎜ ∑ Di2 χ12,1− α χ 2 α ' ⎟⎟ n, 2 ⎠ ⎝ i =1 o EI∗ < ε < EI∗∗ ( ) es el ICB del (1-α’)100% para τ σD2 = ε (Mood et al., 1974d). Del análisis efectuado en la obtención del resultado e*<e**, es necesario especificar un valor α ' < 0.5 . Aunque para la mayoría de los usuarios de un modelo sea relativamente más práctico y sencillo trabajar con un IC de σD2 que para un IC del cuantil 1-α de la distribución de |D|, el ICB del (1-α’)100% de σD2 sólo indica la amplitud de los valores de σD2 (un intervalo angosto implicaría que la distribución de D es menos variable), por lo que para determinar si un modelo satisface la exactitud requerida, no es práctico y no aporta suficiente información para dicho fin que el que proporciona los errores críticos o el ICB ( EI∗ , EI∗∗ ) del (1-α’)100% para ε, el cuantil 1-α de la distribución de |D|. 5.5. Planteamiento para validar un modelo en predicción de varias variables Para el caso de tres variables de salida del modelo y en consecuencia tres pares de conjuntos (Yjk, Zjk) j=1,2,3; k=1,2,…,nj, los mismos valores de exactitud (e y α), y la misma α’ empleada en las inferencias para la determinación de e*j o e*j * , un gráfico de 75 líneas o barras con los letreros Y1, Y2 y Y3 en el eje de las abscisas y los valores e*j o e*j * en el eje de las ordenadas, permitiría visualizar para cuales variables el modelo es más adecuado en predicción. Por ejemplo, si e*2 ≤ e < e1* < e3* entonces el modelo sólo es adecuado en predicción de la variable Y2. También se tendrá que el modelo es más adecuado en predicción para Y2, luego para Y1 y finalmente para Y3. Del gráfico de los ( ) ICB eIj* , eIj* * del (1-α’)100% para εj el cuantil 1-α de la distribución de |Dj|, el intervalo con el menor valor eIj* * implicaría que para la variable Yj el modelo es más adecuado ya que contiene el cuantil 1-α de los valores |djk| antes que las otras variables, además de que primero se cumpliría e ≥ eIj* * que para las restantes variables. En caso de tener unidades de medida diferentes entre las variables, éstas pueden estandarizarse. El procedimiento puede emplearse para validar un submodelo en predicción de varias variables que serán consideradas entradas de otro submodelo. 5.6. Planteamiento para la comparación de dos o más modelos en predicción Un problema frecuentemente dado en la construcción de un nuevo modelo M2, para un sistema particular cuando ya se tiene un modelo M1, es decidir cuál modelo es mejor en cuanto a la exactitud en predicción de los valores del sistema real (Y). Usando los conjuntos (Yi, Zi1) y (Yi, Zi2) i=1,2,…,n y los mismos valores de α y α’, se pueden obtener e1* * y e*2* que son respectivamente los errores críticos basados en el planteamiento alternativo para los modelos M1 y M2. Análogamente al uso como un índice para comparar dos modelos que le dieron al error crítico (E*) Ek y Monserud (1979), el error crítico E** también puede emplearse para el mismo fin, de tal manera que el modelo con el menor error crítico ( e *j* ) será considerado el mejor modelo. Si el usuario del modelo especifica un valor de e tal que e ≥ e*j * para alguna j (j=1,2) entonces el modelo j es adecuado. Un gráfico de barras con los letreros M1 y M2 en el eje de las abscisas y los valores e*j * en el eje de las ordenadas, visualizaría cual es el mejor modelo en predicción del sistema real (Y). Este procedimiento permite comparar 76 dos o más modelos bajo las mismas consideraciones planteadas para el caso de dos modelos. De la sección 5.4 se tiene que la comparación por medio del error crítico basado en el planteamiento original (e*), exige menor error máximo admisible (e) de las desviaciones |yi–zi|=|di|. Mayer y Butler (1993) señalan que medidas de desviación como la media de los errores absolutos (MAE), la media porcentual de los errores (MA%E) y la raíz cuadrada de la media del cuadrado de los errores (RMSE), han sido utilizadas para comparar diferentes modelos o técnicas. Analla (1998), propone el cuadrado medio del error (CME) de la regresión de Y sobre Z para efectuar una validación y para la comparación de dos o más modelos en predicción del sistema. Por su parte Kobayashi y Salam (2000), proponen la media de las desviaciones al cuadrado (MSD) y sus componentes para validar modelos y para comparar dos o más modelos. Para Tedeschi (2006), el uso de solamente algunas técnicas puede ser engañoso en la elección de un modelo apropiado para un escenario determinado. Por su parte Chilibroste (2002), indica que es importante que al evaluar o comparar modelos, la consideración de los objetivos con que han sido construidos sea especialmente considerada, a los efectos de poder extraer conclusiones valederas. 5.7. Validación de modelos basada en el valor absoluto del error en presencia de sesgo constante Reynolds (1984) no presentó un planteamiento basado en el procedimiento de Freese cuando hay sesgo en el modelo, sino que propuso utilizar un ICB del (1-α’)100% para la E(D) la cual sólo da una idea de la discrepancia entre el parámetro µD=E(D) y su estimador D . También, propuso utilizar un intervalo de predicción cuando el usuario está interesado en una predicción futura y un intervalo de tolerancia cuando el usuario está interesado con la población de errores de un número grande de predicciones. Menciona que estos dos intervalos no son muy robustos al supuesto de normalidad y que pueden usarse en presencia o no de sesgo en el modelo. 77 Freese (1960) aunque señala que si el sesgo B es el mismo para todos los valores Yi (µi en su notación), y que su magnitud puede estimarse por la media de las ⎛∧ ⎞ diferencias entre los valores observados y los predichos ⎜ B = D = Y − Z ⎟ , no indicó ⎝ ⎠ explícitamente las razones. Si Di~ NI(µD , σD2 ) entonces E(Di ) = E( Yi ) − Zi = Zi + S( Yi ) − Zi = S( Yi ) = B , donde S( Yi ) denota el sesgo de Yi. Como ∧ ∧ ∧ ∧ µD = B = D y E(Di − B) = 0 se sigue que Di − B = Di − D = Wi es la corrección por SC B. Cuando D~ N(µD , σD2 ) y el modelo presenta SC, coincidiendo con Freese (1960), los valores e y α especificados por el usuario del modelo son tales que satisfacen la exactitud requerida P(D ≤ e ) ≥ 1 − α que se traduce en σD2 ≤ e2 χ12,1− α , una vez que es removido el SC mediante la corrección Di − D . 5.7.1. Pruebas estadísticas para la exactitud requerida El siguiente paso es probar las hipótesis con el planteamiento original ' HSCW : σ2W ≤ e2 χ12,1− α (Freese, 1960) o alternativo HSCW : σ2W > e2 χ12,1− α . Si D~ N(µD , σD2 ) 0 0 ( ) ' entonces W = (D − D) ~ N 0 , ([n − 1] n)σD2 , y la estadística de prueba bajo HSCW o HSCW 0 0 verdadera es V SCW 2 χ12,1− α ⎡ n 2 ⎤ 2 SCW ' = 2 ⎢∑ Di − n(D) ⎥ ~ χn− o HSCW se rechazará con un 1 . La H0 0 e ⎣ i =1 ⎦ ’ SCW c nivel de significación α si V 2 χ12,1− α ⎡ n 2 ⎤ = 2 ⎢∑ di − n(d) ⎥ > χn2−1,1− α ' o VcSCW ≤ χn2−1, α ' , las cuales e ⎣ i =1 ⎦ corresponden a pruebas de razón de verosimilitudes generalizada de tamaño α’ (Mood ' et al., 1974c). Por lo tanto, si HSCW no se rechaza o HSCW se rechaza entonces el 0 0 modelo es considerado aceptable para predicción. Si el modelo presenta SC, D~ N(µD , σD2 ) , e y α son tales que satisfacen la ( ) 2 ⎛ n ⎞ e exactitud requerida P( W ≤ e ) = P D − D ≤ e ≥ 1 − α que se traduce en σD2 ≤ ⎜ ⎟ 2 , ⎝ n − 1⎠ χ1,1− α entonces: (i) las hipótesis con el planteamiento 78 original y alternativo son 2 2 ⎛ n ⎞ e ⎛ n ⎞ e 2 SCD ' 2 y σ ≤ σ > HSCD : H : ⎜ ⎟ 2 ⎜ ⎟ 2 , y (ii) la estadística de prueba bajo 0 D 0 D ⎝ n − 1⎠ χ1,1− α ⎝ n − 1⎠ χ1,1− α ⎛ n − 1⎞ χ1,1− α =⎜ ⎟ 2 ⎝ n ⎠ e 2 SCD 0 H SCD ' 0 (H ) verdadera es V SCD 2 ⎡n 2 ⎤ 2 SCD SCD ' ( ) − D n D se ∑ i ⎢ i =1 ⎥ ~ χn−1 . La H0 o H0 ⎣ ⎦ ⎛ n − 1⎞ χ1,1− α =⎜ ⎟ 2 ⎝ n ⎠ e 2 ’ SCD c rechazará con un nivel de significación α si V 2 ⎡n 2 ⎤ 2 ( ) d − n d ∑ i ⎢i = 1 ⎥ > χn −1,1− α ' o ⎣ ⎦ VcSCD ≤ χ n2−1, α ' [pruebas de razón de verosimilitudes generalizada de tamaño α’, Mood et ' no se rechaza o HSCD se rechaza entonces el modelo al. (1974c)]. Por lo tanto, si HSCD 0 0 es considerado aceptable para predicción. Establecer e como el valor máximo admisible de las desviaciones |yi–zi|=|di|, es quizás más práctico que como el valor máximo admisible de las desviaciones di − d . 5.8. Validación por intervalo de confianza empleando el error crítico en presencia de sesgo constante Freese (1960), Rennie y Wiant (1978), Reynolds (1984) y Barrales et al. (2004) no presentaron el error crítico cuando el modelo tiene SC o SP en sus predicciones. Cuando el modelo presenta SC y D~ N(µD , σD2 ) , los errores críticos correspondientes al planteamiento original y alternativo son: 1 E∗SCW 2 ⎛ 2 ⎡n 2 ⎤ ⎞2 ⎜ χ1,1− α ⎢∑ Di − n(D) ⎥ ⎟ ⎜ ⎣ i =1 ⎦⎟ =⎜ 2 ⎟ χn −1,1− α ' ⎟⎟ ⎜⎜ ⎠ ⎝ 1 y E∗∗ SCW 2 ⎛ 2 ⎡n 2 ⎤ ⎞2 ⎜ χ1,1− α ⎢∑ Di − n(D) ⎥ ⎟ ⎜ ⎣ i =1 ⎦⎟ =⎜ 2 ⎟ χn −1, α ' ⎟⎟ ⎜⎜ ⎠ ⎝ Si el modelador o usuario del modelo especifica un valor de e tal que e ≥ e∗SCW o e ≥ e∗∗ SCW entonces el modelo es considerado aceptable. Los valores e y α son tales que e2 satisfacen la exactitud requerida P(D ≤ e ) ≥ 1 − α que se traduce en σ ≤ 2 una vez χ1,1− α 2 D que es removido el SC mediante la corrección Di − D . 79 Si el modelo presenta SC, D~ N(µD , σD2 ) , e y α son tales que satisfacen la ( ) 2 ⎛ n ⎞ e exactitud requerida P( W ≤ e ) = P D − D ≤ e ≥ 1 − α que se traduce en σ ≤ ⎜ ⎟ 2 , ⎝ n − 1⎠ χ1,1− α 2 D entonces los errores críticos con base al planteamiento original y alternativo son 1 E∗SCD 1 n n 2 2 2 2 ⎡ ⎡ χ12,1− α ∑ (Di − D) ⎤ χ12,1− α ∑ (Di − D) ⎤ n − 1 n − 1 ⎢⎛ ⎥ ⎢⎛ ⎥ ⎞ ⎞ i =1 i =1 y E∗∗ = ⎢⎜ ⎟ ⎟ SCD = ⎢⎜ 2 2 ⎥ ⎥ . Si el modelador o n ⎠ χn −1,1− α ' n ⎠ χn −1, α ' ⎝ ⎝ ⎢ ⎥ ⎢ ⎥ ⎣ ⎦ ⎣ ⎦ usuario del modelo especifica un valor de e tal que e ≥ e∗SCD o e ≥ e∗∗ SCD entonces el modelo es considerado aceptable. Reynolds (1984) y Barrales et al. (2004) no presentaron un ICB para ( εSC = σ χ 2 W 2 1,1− α ) 1 2 1 1 ⎛ ⎛ n − 1⎞ 2 2 ⎞ 2 ⎛ n − 1⎞ 2 = ⎜⎜ ⎜ ⎟σD χ1,1− α ⎟⎟ = ⎜ ⎟ ε , el cuantil 1-α de la distribución de ⎝ n ⎠ ⎝⎝ n ⎠ ⎠ W = D − D o equivalentemente el cuantil 1-α de la distribución de D corregido por el 1 ⎛ n − 1⎞ 2 2 factor ⎜ ⎟ . Un ICB del (1-α’)100% para ε SC a partir del ICB del (1-α’)100% para σD ⎝ n ⎠ ( ) y con εSC = τ σD2 función monótona creciente es: 1 1 n n ⎛ ⎞2 ⎛ ⎞2 2 2 2 ( ) ( D D Di − D) χ12, 1− α ⎟ − χ ⎜ ⎜ ⎟ ∑ ∑ 1, 1− α i ⎟ ⎜ ⎛⎜ n − 1⎞⎟ i =1 ⎟ < ε < ⎜ ⎛⎜ n − 1⎞⎟ i =1 SC 2 2 ⎜ ⎟ ⎜⎝ n ⎠ ⎟ n χ χ ⎝ ⎠ α' α' n −1, n −1, 1− ⎜ ⎟ ⎜ ⎟ 2 2 ⎝ ⎠ ⎝ ⎠ ∗ ∗∗ o EISC < εSC < EISC ∗ ∗∗ EISC y EISC corresponden a los errores críticos que se obtienen de las regiones de ' y HSCD , con la diferencia de que α’ corresponde a α ' 2 en sus rechazo para HSCD 0 0 expresiones. El intervalo de confianza estimado significa que se tiene confianza en un (1-α’)100% que el punto de la distribución W = D − D que tiene debajo el (1-α)100% de ( ) * ** los errores absolutos está localizado en alguna parte en el intervalo eISC , eISC . 80 5.9. Validación de modelos basada en el valor absoluto del error en presencia de sesgo proporcional También para este caso Reynolds (1984), no presentó un planteamiento basado en el procedimiento de Freese cuando el modelo presenta SP en sus predicciones. Freese (1960) no indicó explícitamente la traducción de la exactitud requerida P(D ≤ e ) ≥ 1 − α en σD2 ≤ e2 χ12,1− α , así como las razones de emplear los residuos de una regresión lineal de los valores yi sobre los valores zi (en su notación xi sobre µi) para la corrección por SP. Con Yi~ NI( Zi + S( Yi ), σ2 ) i=1,2,…n se tiene que E(Di ) = S( Yi ) = R y si el sesgo (di=yi-zi) crece o decrece directamente con los valores predichos (zi), un ∧ ∧ ∧ ∧ estimador de R es µDi = R = β0 + β1 Zi . Esto se debe a que para el conjunto (Di, Zi) ∧ ∧ i=1,2,…,n relacionados por Di = β0 + β1Zi + εRi donde εRi ~ NI(0, σ2 = σR2 ) , β0 y β1 los estimadores por mínimos cuadrados de los parámetros β0 y β1 se sigue que ∧ ∧ ∧ ∧ ∧ ∧ ∧ ∧ ∧ ∧ ⎛ ⎞ µD i = R = Di = β0 + β1 Zi y E⎜ Di − Di ⎟ = 0 . Por lo tanto, εRi = Di − Di = Di − (β0 + β1 Zi ) es la ⎝ ⎠ corrección por SP. Si el modelo presenta SP, Freese (1960) en la determinación de la estadística de prueba utilizó, sin indicarlo explícitamente, σ2 ≤ e 2 χ12,1− α para la exactitud requerida P(D ≤ e ) ≥ 1 − α que se traduce precisamente en σR2 ≤ e2 χ12,1− α una vez que es removido el SP mediante la corrección indicada antes, la cual coincide con los supuestos εRi ~ NI(0, σR2 ) , e y α tales que satisfacen P( εR ≤ e ) ≥ 1 − α . 5.9.1. Pruebas estadísticas para la exactitud requerida El siguiente paso es probar las hipótesis con el planteamiento original 2 2 2 SP ' HSP : σR2 > e 2 χ12,1− α . La estadística de 0 : σR ≤ e χ1,1− α (Freese, 1960) o alternativo H0 prueba ( εRi ~ NI(0, σ2 = σR2 ) con y bajo ) HSP 0 o ' HSP 0 verdadera es 2 SP ' V SP = χ12,1− α e2 (n − 2)(CME)D ~ χn− o HSP se rechazará con un nivel de 2 . La H0 0 81 ( ) significación α’ si VcSP = χ12,1− α e2 (n − 2)(CME)D > χn2− 2,1− α ' o VcSP ≤ χn2− 2, α ' donde (CME)D ∧ ∧ ∧ corresponde al cuadrado medio del error del modelo estimado Di = β0 + β1 Zi . Por lo ' tanto, si HSP no se rechaza o HSP 0 0 se rechaza entonces el modelo es considerado aceptable. Freese (1960) señala que si el modelo presenta SP, es decir, la magnitud del sesgo (en su notación di=xi-µi) crece o decrece directamente con los valores reales (en su notación µi), la estadística de prueba con Xi~ N(µi , σ2 ) es ∧ ∧ SCE 2 ~ χn− 2 donde la SCE σ2 ∧ se obtiene del modelo estimado Xi = β0 + β1 µi . Sin embargo, por los resultados ∧ ∧ ∧ obtenidos la SCE corresponde al modelo estimado Di = β01 + β11 µi (en su notación), ∧ donde el supuesto a verificar es que los residuales estimados eRi = di − di son independientes y provienen de una distribución normal con media cero y varianza constante. Si se utiliza como variable dependiente Xi con variable regresora µi, la SCE ∧ ∧ ⎛ ∧ ⎞ corresponde al modelo estimado Xi = β0 + ⎜ β11 + 1⎟µi . ⎝ ⎠ 5.10. Validación por intervalo de confianza empleando el error crítico en presencia de sesgo proporcional También para este caso Freese (1960), Rennie y Wiant (1978), Reynolds (1984) y Barrales et al. (2004) no presentaron el error crítico cuando el modelo tiene SP en sus pronósticos. Si la magnitud del sesgo (di=yi-zi) crece o decrece directamente con los valores predichos (zi) y se cumple el supuesto εRi ~ NI(0, σ2 = σR2 ) para el modelo estimado ∧ ∧ ∧ Di = β0 + β1 Zi , los errores críticos correspondientes al planteamiento original y 1 alternativo son E∗SP 1 ⎛ χ12,1− α (n − 2)(CME )D ⎞ 2 ⎛ χ12,1− α (n − 2)(CME )D ⎞ 2 ∗∗ ⎜ ⎟ ⎟ . Si el usuario = y ESP = ⎜ 2 2 ⎜ ⎟ ⎜ ⎟ χ χ n − 2,1− α ' n − 2, α ' ⎝ ⎠ ⎝ ⎠ 82 del modelo especifica un valor de e tal que e ≥ e∗SP o e ≥ e∗∗ SP entonces el modelo es considerado aceptable. Los valores e y α son tales que satisfacen la exactitud requerida P(D ≤ e ) ≥ 1 − α que se traduce en σD2 ≤ ∧ ∧ ∧ e2 una vez que es removido el SP mediante χ12,1− α ∧ la corrección εRi = Di − Di = Di − (β0 + β1 Zi ) . Reynolds (1984) y Barrales et al. (2004), no presentaron un ICB para ( ) 1 εSP = σR2 χ12,1− α 2 , el cuantil 1-α de la distribución de εR . Un ICB del (1-α’)100% para εSP ( ) ( a partir del ICB del (1-α’)100% para σR2 con τ σR2 = σR2 χ12,1−α creciente, está dado por χ12,1− α (SCE )D χ 2 n − 2,1− < εSP < α' 2 χ12,1− α (SCE )D χ 2 n − 2, ) 1 2 = ε SP función monótona ∗ ∗∗ . , es decir, EISP < εSP < EISP α' 2 ∗ ∗∗ EISP y EISP corresponden a los errores críticos E∗SP y E∗∗ SP con la diferencia de que α’ se sustituye por α’/2. El intervalo de confianza estimado significa que se tiene confianza en un (1-α’)100% que el punto de la distribución εR que tiene debajo el (1-α)100% de los ( ) * ** errores absolutos está localizado en alguna parte en el intervalo eISP , eISP . 5.11. Planteamiento para validar un modelo en predicción de varias variables y para la comparación de dos o más modelos en predicción cuando el modelo presenta sesgo Con los errores críticos para SC o SP, pueden emplearse el mismo tipo de gráficas propuestas para visualizar la validación de un modelo en predicción de varias variables cuando el modelo no presenta sesgo. En la comparación de dos o más modelos en predicción del mismo sistema, se emplearía el error crítico correspondiente según el modelo no presente sesgo, tenga sesgo constante o proporcional. El modelo con el menor error crítico es el mejor modelo. 83 5.12. Sesgo y supuestos En los procedimientos tratados se supone básicamente que D~ N(0, σD2 ) para el caso en el que el modelo no presenta sesgo, y D~ N(µD , σD2 ) cuando el modelo presenta SC o SP, aunque para este último, el supuesto se traduce en εRi ~ NI(0, σR2 ) para el modelo Di = β0 + β1Zi + εRi . En el procedimiento de validación cuando el modelo no presenta sesgo, la suposición D~N(0, σD2 ) significa que el modelo presenta predicción insesgada σD2 ≤ (µD = 0 ) ( ) y la precisión de los errores de predicción σD2 debe cumplir e2 para que la exactitud requerida se satisfaga y modelo sea considerado χ12,1− α aceptable o suficientemente confiable para predicción. Un análisis gráfico exploratorio de los valores predichos contra los observados y de los predichos contra el sesgo, es básico para visualizar la exactitud, precisión e identificación del tipo de sesgo y así, utilizar el procedimiento apropiado para determinar si el modelo cumple con la exactitud requerida; por lo que en la aplicación de los procedimientos, ya sea una prueba de hipótesis, un intervalo de confianza o el error crítico, es necesario y fundamental establecer la exactitud requerida la cual implica una comprensión del sistema por parte del modelador o usuario del modelo. Por su parte Barrales et al. (2004), señalan que se requiere de un compromiso por parte del usuario, que es decidir el nivel de exactitud asignado al modelo para su aceptación y adicionalmente, un estudio de la información generada por el modelo, que le permita seleccionar de las metodologías propuestas, aquella más adecuada a las características de los datos. Los procedimientos para validar modelos en presencia de SC o SP se aplican sin que el modelo sea modificado en su estructura, sino que se remueve el tipo de sesgo a los datos disponibles (zi, yi) a través de los valores del sesgo (di), es decir, Di − D es la ∧ ∧ corrección por SC y Di − (β0 + β1 Zi ) es la corrección por SP. Identificar el tipo de sesgo permitiría corregir al modelo en su estructura y evaluación a través de cuestionar: (a) las hipótesis que se emplearon en la construcción 84 del modelo, (b) los datos experimentales utilizados en el ajuste de los parámetros, (c) los métodos para el ajuste de los parámetros, (d) los parámetros tomados de la literatura, (e) los datos experimentales empleados en la validación del modelo, (f) el comportamiento en predicción del modelo para diferentes escenarios, y (g) el tipo de corrección a utilizar en el modelo y en que etapa del diseño del modelo debe realizarse. Bendell (1986), indica que sólo la validación no es suficiente y que hay que insistir para un cambio de énfasis en la práctica de la modelación hacia el conocimiento de los datos y al análisis exploratorio en la etapa de formulación del modelo. Para Barrales et al. (2004), detectar en el modelo la presencia de un sesgo, ya sea constante o proporcional, en función de los valores del sistema real, le permitiría al usuario identificar en su modelo, la o las causas que lo producen, corregir deficiencias en el comportamiento predictivo, que llevaría a disminuir las discrepancias entre lo estimado por el modelo y los valores proporcionados por el escenario real, permitiendo que las conclusiones que se obtengan acerca de la confiabilidad del modelo cumplan con los objetivos establecidos. La validación de modelos mediante el planteamiento de Freese (1960) y las extensiones presentadas en este trabajo no requieren el supuesto de que Y se relacione linealmente con Z, además de que no es necesario para la comparación entre Y y Z. Por su parte Kobayashi y Salam (2000) indican que no es garantía el supuesto de que Y se relacione linealmente con Z y que es innecesario para compararlos. Reynolds (1984), señala que las predicciones de un simulador estocástico son por lo general basadas sobre el promedio de varias corridas de simulación, y aplica el procedimiento de validación para un ejemplo en donde el modelo no presenta sesgo en sus pronósticos y es un simulador estocástico. Por lo que los procedimientos tratados en este trabajo pueden utilizarse para modelos o simuladores estocásticos, de modo que cada predicción sea generada como la media aritmética de varias corridas de simulación. Así, la varianza de las predicciones promedio es menor que la varianza de las observaciones usadas para generarlas, ya que si X1,X2,…,Xn es una muestra aleatoria de una función de densidad de probabilidad f(.) la cual tiene media µ y varianza finita σ2 entonces E( X) = µ y V( X) = σ2 n . 85 La aplicación de cualquier método inferencial para validar modelos se encuentra principalmente sujeto a las dificultades para satisfacer sus supuestos. Una gran variedad de métodos estadísticos suponen normalidad para poder utilizarlos, por lo que existen variados métodos gráficos e inferenciales para verificarlo. Si la variable de estudio no se distribuye normal, generalmente se emplea algún tipo de transformación para aproximar los datos a la distribución normal y el método estadístico se aplica a la variable transformada. Una transformación es simplemente una reexpresión de los datos en diferente unidad de medida. Harrison (1990) señala que cuando no se satisfacen los supuestos del método inferencial, se debe recurrir a métodos descriptivos y a expertos en el área de estudio para que proporcionen una opinión acerca de la validación del modelo, o lo adecuado del modelo sea calificado por el modelador de acuerdo a su criterio y propósitos (Mitchell, 1997). Adicionalmente se pueden utilizar medidas estadísticas descriptivas basadas en las diferencias entre los valores observados y simulados. 5.13. Validación del modelo dinámico mecanístico Wakax POS en predicción de la ganancia de peso La metodología de validación desarrollada se aplicó a la diferencia entre los datos experimentales de ganancia de peso promedio (GPP) por día y los simulados con el modelo Wakax POS. Los valores de la GPP corresponden a las medias de los experimentos obtenidos de la literatura (Anexo II, Cuadros: II.1 y II.2) con bovinos en pastoreo suplementado con caña de azúcar, maíz quebrado y/o melaza en una zona tropical de México. En el Cuadro 1 se muestran las GPP observadas (yi), simuladas o predichas (zi) y sus diferencias (di=yi-zi). Cuadro 1. Promedios observados de ganancia de peso (kg) de 34 experimentos y sus correspondientes simulados con el modelo Wakax POS. Indentificador Observado Modelado Diferencia (zi) (di=yi-zi) (yi) V09 0.366 0 0.366 V10 0.398 0 0.398 V11 0.493 0.39 0.103 V12 0.63 0.43 0.2 86 V16 V17 V18 V19 V20 V21 V22 V23 V24 V25 V26 V27 V28 V29 V30 V31 V32 V33 V35 V36 V37 V38 V39 V40 V41 V42 V48 V49 V50 V51 0.43 0.4 0.49 0.6 0 0.43 0.7 0.69 0.5 0.68 0.62 0.52 0.64 0.45 0.43 0.76 0.036 0.019 0.412 0.052 0.414 0.05 0.292 0.054 0.308 0.054 0.037 0.051 0.062 0.364 0.13 0.28 0.23 0.29 0.28 0.09 0.32 0.33 0.02 0 0 0.26 0 0 0.33 0.39 0 0 0 0 0 0 0.35 0 0.39 0 0 0 0 0 0.3 0.12 0.26 0.31 -0.28 0.34 0.38 0.36 0.48 0.68 0.62 0.26 0.64 0.45 0.1 0.37 0.036 0.019 0.412 0.052 0.414 0.05 -0.058 0.054 -0.082 0.054 0.037 0.051 0.062 0.364 La media y desviación estándar de las n=34 diferencias del Cuadro 1 son d = 0.233 kg y SD = 0.223 kg . De observar las diferencias y el valor de la media se espera que E(D) = µD ≠ 0 estadísticamente, es decir, el modelo presente algún tipo de sesgo. Para probar el supuesto D~ N(0, σD2 ) con varianza no especificada, se utilizaron las pruebas de bondad de ajuste de Cramér-von Mises (W2=2.172, P<0.003) y Anderson-Darling (A2=10.733, P<0.003). Ambas pruebas con nivel de significación del 5% (α=0.05) rechazan la hipótesis D~ N(0, σD2 ) . El siguiente paso es probar si 87 D~ N(µD , σD2 ) con media y varianza no especificadas e identificar el tipo de sesgo presente en el modelo. Los valores de las estadísticas de prueba de Cramér-von Mises, Anderson-Darling, Shapiro-Wilks, Kolmogorov-Smirnov y sus correspondientes Pvalores son: W2=0.118, P=0.065; A2=0.655, P=0.084; W=0.961, P=0.254; KS=0.135, P=0.115. Con éstas cuatro pruebas la hipótesis D~ N(µD , σD2 ) no puede ser rechazada con α=0.05 (P>0.05). La distribución normal ajustada tiene media y desviación estándar ( ) estimadas d = 0.233 kg y SD = 0.223 kg [D~ N 0.233 kg, [0.223 kg] ]. 2 La prueba t para la hipótesis E(D) = µD = 0 determinó que µD ≠ 0 (P<0.05) [t=6.092, g.l.=33, P=7.361 x 10-7], la cual sugiere que el modelo presenta algún tipo de sesgo. Para determinar la presencia de SC o SP se obtuvo un gráfico de dispersión de los valores pronosticados (zi) vs. el sesgo correspondiente (di), con la media de las diferencias indicada (Figura 6). El gráfico de dispersión de los valores predichos (zi) vs. los observados (yi) (Figura 7), permite visualizar que tan alejados están los puntos de la recta y=z, y de posibles tendencias de los puntos respecto a dicha recta. di 0.92 0.69 0.46 d 0.23 0 0 0.1 0.2 0.3 0.4 0.5 Zi -0.23 -0.46 Figura 6. Relación entre el sesgo (di) y los valores simulados (zi) para la GPP. d = 0.233 kg es la media de las diferencias (di). 88 Yi 0.8 0.7 y=z 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 Zi Figura 7. Dispersión de los puntos (zi, yi) para la GPP. y=z es la recta que representa la exactitud ideal. La distribución de los puntos en la Figura 6 muestra un SC, ya que: (i) la ∧ estimación de B = D es muy diferente de cero, la cual fue verificado con la prueba t ( µD ≠ 0 ), y (ii) los puntos (zi, di) forman prácticamente una banda horizontal centrada alrededor de d , con una distribución sistemática a ser positivos o negativos, es decir, los puntos se localizan arriba y debajo de la recta d = d . La distribución de los puntos en la Figura 7 muestra que éstos se encuentran “alejados” de la exactitud ideal (y=z), aunque si se trasladan una cierta cantidad perpendicularmente al eje de las abscisas, la exactitud mejorará. Lo anterior refuerza la percepción de que el modelo presenta SC en sus pronósticos. Debido a que el modelo presenta SC se procedió a aplicar los procedimientos de validación correspondientes a este tipo de sesgo. En el Cuadro 2 se presentan los valores de la corrección por SC (w i = di − d = di − 0.233 ) . 89 Cuadro 2. Diferencia entre los valores observados y predichos, y la corrección por sesgo constante. Indentificador Diferencia (di=yi-zi) V09 0.366 V10 0.398 V11 0.103 V12 0.2 V16 0.3 V17 0.12 V18 0.26 V19 0.31 V20 -0.28 V21 0.34 V22 0.38 V23 0.36 V24 0.48 V25 0.68 V26 0.62 V27 0.26 V28 0.64 V29 0.45 V30 0.1 V31 0.37 V32 0.036 V33 0.019 V35 0.412 V36 0.052 V37 0.414 V38 0.05 V39 -0.058 V40 0.054 V41 -0.082 V42 0.054 V48 0.037 V49 0.051 V50 0.062 V51 0.364 Corrección por SC (w i = di − d = di − 0.233 ) 0.133 0.165 -0.13 -0.033 0.067 -0.113 0.027 0.077 -0.513 0.107 0.147 0.127 0.247 0.447 0.387 0.027 0.407 0.217 -0.133 0.137 -0.197 -0.214 0.179 -0.181 0.181 -0.183 -0.291 -0.179 -0.315 -0.179 -0.196 -0.182 -0.171 0.131 La media y desviación estándar de las n=34 correcciones por SC (wi) del Cuadro 2 son w = 0 kg y SD = S W = 0.223 kg e indican que en promedio las desviaciones (di=yizi) de cero son 0.223 (0 ± 0.223). 90 Para probar el supuesto W = (D − D ) ~ N(0, σ2W ) con varianza no especificada, se utilizaron las pruebas de bondad de ajuste de Cramér-von Mises (W2=0.122, P>0.25) y Anderson-Darling (A2=0.675, P>0.25). Ambas pruebas con α=0.05 no rechazan la hipótesis W~ N(0, σ2W ) . En este ejemplo se aplicó el método de calcular los errores máximos anticipados o errores críticos del planteamiento original ( e∗SCW ) y alternativo ( e∗∗ del SCW ) procedimiento de Freese. Con este enfoque el modelador o usuario del modelo, decide si el modelo es aceptable en predicción del sistema al comparar el error crítico con la exactitud requerida (e) bajo los valores α y α’ especificados con anticipación. Adicionalmente ( εSC = σ2W χ12,1− α ) 1 2 se calculó el ICB del (1-α’)100% para 1 ⎛ ⎛ n − 1⎞ 2 2 ⎞ 2 = ⎜⎜ ⎜ ⎟σD χ1,1− α ⎟⎟ , el cuantil 1-α de la distribución de W = D − D . ⎝⎝ n ⎠ ⎠ Con α=α’=0.05 los errores críticos son: 1 e∗SCW n ⎛ 2 2 ⎞2 ⎜ χ1,1− α ∑ (di − d) ⎟ ⎛ χ12, 0.95 1.641274(kg)2 i =1 ⎜ ⎟ =⎜ = 2 ⎜ ⎜ ⎟ χ33 χn2−1,1− α ' , 0.95 ⎝ ⎜ ⎟ ⎝ ⎠ e∗∗ SCW ⎛ 2 2 ⎞ ⎜ χ1,1− α ∑ (di − d) ⎟ 2 2 i =1 ⎟ = ⎛⎜ χ1, 0.95 1.641274(kg) =⎜ 2 ⎜ ⎜ ⎟ χ33 χn2−1, α ' , 0.05 ⎝ ⎜ ⎟ ⎝ ⎠ ( n 1 2 ( ) ⎞⎟ 1 2 ) ⎞⎟ 1 2 ⎟ ⎠ ⎟ ⎠ = 0.365 kg = 0.550 kg Por lo tanto, si el modelador o usuario del modelo especifica una exactitud e (P(D ≤ e) ≥ 0.95 ) tal que e ≥ e ∗ SCW = 0.365 kg o e ≥ e∗∗ SCW = 0.550 kg entonces el modelo será considerado suficientemente confiable en predicción del sistema con base en el planteamiento original y alternativo respectivamente. Lo anterior implica una buena comprensión del sistema por parte del modelador o usuario del modelo para establecer la exactitud requerida (e). El ICB del 1-α’=95% para εSC esta dado por: 91 1 1 n n ⎛ ⎞2 ⎛ ⎞2 2 2 2 ( ) ( D D Di − D) χ12, 1− α ⎟ − χ ⎜ ⎜ ⎟ ∑ ∑ i 1, 1− α ⎟ ⎜ ⎛⎜ n − 1⎞⎟ i =1 ⎟ < ε < ⎜ ⎛⎜ n − 1⎞⎟ i =1 SC 2 2 ⎜ ⎟ ⎜⎝ n ⎠ ⎟ χ α' χ ⎝ n ⎠ α' n −1, 1− n −1, ⎜ ⎟ ⎜ ⎟ 2 2 ⎝ ⎠ ⎝ ⎠ ( ) 1 ( ) 1 ⎛ ⎛ 33 ⎞ 1.641274(kg)2 χ12, 0.95 ⎞ 2 ⎛ ⎛ 33 ⎞ 1.641274(kg)2 χ12, 0.95 ⎞ 2 ⎜⎜ ⎟ ⎟ ⎜⎜ ⎟ ⎟ < ε < SC 2 2 ⎜ ⎝ 34 ⎠ ⎟ ⎜ ⎝ 34 ⎠ ⎟ χ χ 33 , 0 . 975 33 , 0 . 025 ⎝ ⎠ ⎝ ⎠ 0.347 kg < εSC < 0.567 kg Por lo tanto, se tiene confianza en un 1-α’=95% de que el punto de la distribución W = D − D que tiene debajo el 1-α=95% de los errores absolutos (d − d ) está localizado en alguna parte en el intervalo (0.347 kg, 0.567 kg), es decir, con ( ) probabilidad del 95% la magnitud del error d − d no es más de 0.567 kg. A pesar de las objeciones señaladas a la regresión para validar modelos (sección 3.4.2.), se procedió a efectuar esta metodología entre la variable dependiente Y y la variable independiente Z, con la finalidad de establecer alguna similitud con los resultados previamente obtenidos de la metodología de validación de modelos mecanísticos basada en el procedimiento de Freese (1960). El gráfico de dispersión de los valores predichos (zi) vs. observados (yi), junto con la recta de regresión estimada y la recta y=z (Figura 8), permite visualizar que tan alejados están los puntos de la recta y=z, de posibles tendencias de los puntos respecto a dicha recta y de una percepción acerca de la precisión y exactitud basadas según Tedeschi (2006) en el coeficiente de determinación (r2) como buen indicador de precisión (un valor alto de r2 precisión alta), y en que los parámetros estimados del intercepto y la pendiente son buenos indicadores de exactitud; simultáneamente cercanos a cero y a uno respectivamente, la exactitud es más alta. Del ajuste por mínimos cuadrados al modelo lineal Yi = β0 + β1Zi + εRi i=1,2,…,34 para describir la relación entre Y y Z, se obtuvo la ecuación del modelo ajustado o estimado y=0.280+0.648z. Antes de dar una interpretación a dicho modelo se procedió a verificar los supuestos básicos del método. Las pruebas de bondad de ajuste de Cramér-von Mises (W2=0.190, P>0.25) y de Anderson-Darling (A2=1.109, P=0.24), 92 indican con α=0.05 que los errores estimados provienen de una distribución normal con media cero y varianza constante. De los resultados del ANOVA (F1,32=7.64, P=0.009) existe relación estadísticamente significativa (P<0.05) entre Y y Z. En la Figura 8 se muestra la recta de regresión ajustada, el coeficiente de determinación y la recta de exactitud ideal y=z. Yi 0.8 0.7 y=z 0.6 0.5 0.4 0.3 y=0.2798+0.6475z R2=0.1927 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 Zi Figura 8. Relación entre los valores predichos (zi) y los observados (yi) para la GPP. y=0.2798+0.6475z es la recta de regresión ajustada. y=z es la recta de exactitud ideal. La distribución de los puntos en la Figura 7 y 8 muestran que éstos se encuentran “alejados” de la exactitud ideal (y=z), aunque si se trasladan una cierta cantidad perpendicularmente al eje de las abscisas, la exactitud mejorará. En la Figura 8 se observa que la recta de regresión estimada y=0.280+0.648z es “casi paralela” a la recta y=z que representa la exactitud ideal. Las dos observaciones anteriores refuerzan la percepción de que el modelo presenta SC en sus pronósticos. Esto concuerda con el análisis exploratorio realizado en la Figura 6 la cual corresponde al gráfico recomendado para identificar SC o SP. Los IC estimados del 95% para los parámetros β0 (ordenada en el origen o intercepto) y β1 (pendiente) son 0.180 < β0 < 0.379 y 0.170 < β1 < 1.125 . Estos indican que con una probabilidad del 95% el intercepto es estadísticamente diferente de cero y la pendiente es estadísticamente uno. El enfoque de intervalos de confianza para 93 determinar si el intercepto es cero y la pendiente uno es más informativo que las pruebas t para el mismo propósito, ya que proporcionan la amplitud de los posibles valores de dichos parámetros y no son tan categóricos como las pruebas de hipótesis. De nuevo, con base en los IC estimados para los parámetros del modelo Yi = β0 + β1Zi + εRi , se refuerza la percepción de que el modelo presenta SC ya que el intercepto es estadísticamente diferente de cero y la pendiente es estadísticamente uno, es decir, la recta de regresión ajustada es “casi paralela” a la recta determinística y=z que representa la exactitud ideal. Por su parte Gauch et al. (2003), señalan que cuando estadísticamente la pendiente es igual a uno y el intercepto es diferente de cero, se dice que la falta de exactitud es conocida como discrepancia por traslación; en cambio Tedeschi (2006) le llama un caso inexacto y preciso. Para Flavelle (1992), si se rechaza la hipótesis de pendiente igual a uno entonces hay algún sesgo en el modelo, y si no se rechazan las hipótesis de pendiente uno e intercepto cero no significa que el modelo esta libre de sesgo, únicamente que el análisis de regresión fracasa en identificarlo. Mayer y Butler (1993), presentaron un ejemplo en donde no resultaron significativas las pruebas t para las hipótesis de pendiente uno e intercepto cero y sin embargo, la prueba F simultánea de pendiente uno e intercepto cero sí resultó significativa. Por su parte Tedeschi (2006), presentó un ejemplo en donde las pruebas t para pendiente uno e intercepto cero resultaron no significativa y significativa respectivamente, la cual concordó con la significancia de la prueba F simultánea de pendiente uno e intercepto cero. En cuanto al coeficiente de determinación (r2=19.27%), llamado con frecuencia la proporción de la variación explicada por el regresor (z); indica que el 19.27% de la variabilidad de los valores observados (y) es explicada por el modelo de regresión ajustado. Montgomery et al. (2002c), señalan respecto al coeficiente de determinación en una regresión rectilínea que: (a) un valor grande de r2 puede ser tan sólo el resultado de que z se haya variado en forma no realista dentro de un intervalo grande. La r2 puede ser pequeña porque el intervalo de las z sea demasiado pequeño como para permitir detectar su relación con la variable dependiente (y), y (b) un valor grande de r2 no implica que la pendiente sea grande, además, r2 no mide la adecuación del modelo lineal, porque con frecuencia r2 es grande aunque z y (y) no tengan relación lineal. Una 94 r2 grande no necesariamente implica que el modelo de regresión sea un predictor exacto. De los análisis estadísticos realizados se tiene que el modelo Wakax POS puede usarse para predecir la GPP diaria de bovinos alimentados con caña de azúcar, maíz quebrado y/o melaza en una zona tropical de México, aunque requerirá un ajuste con base a la presencia de SC para incrementar la exactitud en sus pronósticos. Desde la perspectiva de la regresión el modelo presenta discrepancia por traslación, es decir, es un caso inexacto y preciso. Determinar comportamientos extraños entre los pronósticos de un modelo y los valores observados del sistema real, como por ejemplo el tipo de sesgo, es fundamental para el mejoramiento del modelo a través de cuestionar desde su estructura hasta los datos y métodos empleados en todos los procesos. Según McCarthy et al. (2001), probar un modelo ayuda a identificar sus debilidades para que sea mejorado su desempeño predictivo por medio de un proceso iterativo de desarrollo del modelo, probarlo, modificarlo y probarlo nuevamente. Para Tedeschi (2006), la identificación y aceptación de inexactitudes de un modelo es un paso hacia la evolución de un modelo más exacto y de más confianza. 5.14. Validación del modelo dinámico mecanístico Wakax POS en predicción de la materia seca, ácidos grasos volátiles, acetato, propionato y butirato en el Rumen y Ciego A continuación se validará el modelo Wakax POS en predicción de la materia seca (DM), ácidos grasos volátiles (AGVs), acetato (Ac), propionato (Pr) y butirato (Bu) en el Rumen y Ciego. En el Cuadro II.3 del Anexo II se indican las fuentes e información de los datos experimentales utilizados en la validación. En el Cuadro 3 se muestran los valores observados (yi) y predichos (zi) para cada una de dichas variables en el Rumen y Ciego. Debido al tamaño de muestra pequeño (Cuadro 3) [Rumen: n=3 DM, n=5 AGVs, y n=8 Ac, Pr, Bu; Ciego: n=3 DM, AGVs, Ac, Pr, Bu], se utilizaran métodos gráficos o visuales de validación como los gráficos de dispersión de Z vs. Y junto con la recta y=z y el 95 gráfico propuesto por Mitchell (1997), en donde se grafica en el eje de las abscisas los valores predichos, en el eje de las ordenadas las desviaciones (predicho menos observado) y el porcentaje de puntos que caen dentro de un rango o precisión aceptable con centro en cero, es usado como un criterio de adecuación del modelo. El rango de aceptación lo establece el modelador de acuerdo a su criterio y propósitos. Este gráfico es similar al que se emplea para la determinación de sesgo (zi vs. di), con la diferencia de que en el eje de las ordenadas se gráfica el sesgo o desviaciones di=yizi (observado menos predicho), la cual no causa ningún problema técnico en cuanto a visualizar las desviaciones al comparar los observados con los predichos. Aquí se utilizará la gráfica empleada para determinar sesgo. Adicionalmente se emplearán dos medidas para efectuar validación que se basan en la comparación entre los valores observados y los predichos. Estas serán la eficiencia de modelado (MEF) (Loague y Green, 1991; Mayer y Butler, 1993; Tedeschi, 2006) y el coeficiente de determinación del modelo (CD) (Tedeschi, 2006). Cuadro 3. Valores de DM, AGVs, Ac, Pr y Bu observados y predichos con el modelo Wakax POS en el Rumen y Ciego. Ind V32 V42 V43 V44 V45 V46 V47 V51 DM(%) DM(%)P AGVs(mM) 14.3 15.3 17.3 6 9 11 149 176 161 116.667 157.333 Ind V43 V44 V45 DM(%) 14 10.5 10 DM(%)P 55 74 89 AGVs(mM) 63 82 88 Rumen AGVs(mM)P Ac(%) 59.9 64 40.960 58 67.074 54 94.341 56 63.428 73.333 61.440 76.667 76.9 Ac(%)P 60 60 60 60 60 60 60 60 Pr(%) 21.9 23 28 26 27 18.333 17 17.6 Ciego AGVs(mM)P Ac(%) 99.377 73 137.103 71 167.709 73 Ac(%)P 79 78 78 Pr(%) 21 22 22 Pr(%)P 35 35 35 33 31 35 35 35 Pr(%)P 16 16 16 Bu(%) 17.9 13 14 20 17 7.667 6.333 5.1 Bu(%) 6 7 5 Bu(%)P 5 5 5 8 9 5 5 5 Bu(%)P 5 6 6 Ind denota Identificador. Una P al final de cada variable denota sus correspondientes predichos con el modelo Wakax POS. En las Figuras 9 y 10 se describe la exactitud de las predicciones de Wakax POS en el Rumen para DM, Ac, Pr, Bu y AGVs respecto a la recta y=z. Las Figuras 11 y 12 describen la relación entre el sesgo (di=yi-zi) y los valores simulados (zi) para dichas 96 variables en el Rumen. De proyectar los puntos de las Figuras 9 y 10 en cada uno de los ejes y de observar la magnitud del sesgo para cada predicción en las Figuras 11 y 12, se tiene en términos generales que las predicciones para: (a) DM fueron menores a los observados, (b) Ac fue única (60%) para valores de entre 54% y 76.9%, siendo mejor para valores intermedios a dichos extremos, (c) Pr fueron mayores a los observados, (d) Bu fueron mayores a los observados, siendo mejor para valores observados bajos, y (e) AGVs fueron menores a los observados, quedando prácticamente cada predicción a la mitad de cada observación del sistema real. Yi 80 70 y=z 60 DM(%) 50 Ac(%) 40 Pr(%) 30 Bu(%) 20 10 0 0 10 20 30 40 50 60 70 80 Zi Figura 9. Dispersión de los puntos (zi, yi) para DM, Ac, Pr y Bu en el Rumen. y=z es la recta que representa la exactitud ideal. 97 Yi 200 180 y=z 160 140 120 100 80 60 40 20 0 0 20 40 60 80 100 120 140 160 180 200 Zi Figura 10. Dispersión de los puntos (zi, yi) para AGVs(mM) en el Rumen. y=z es la recta que representa la exactitud ideal. di 20 15 10 5 DM(%)P Ac(%)P 0 -5 0 10 20 30 40 50 60 70 Pr(%)P Bu(%)P -10 -15 -20 Zi Figura 11. Relación entre el sesgo (di=yi-zi) y los valores simulados o predichos (zi) para DM, Ac, Pr y Bu en el Rumen. 98 di 120 100 80 60 40 20 0 0 10 20 30 40 50 60 70 80 90 100 Zi Figura 12. Relación entre el sesgo (di=yi-zi) y los valores simulados o predichos (zi) para AGVs(mM) en el Rumen. Del rango de las diferencias (di) para DM, Ac, Pr, Bu y AGVs en el Rumen, se tiene que el sesgo (di=yi-zi) presenta mayor amplitud para los AGVs, seguido por Ac, Pr, Bu y DM (Cuadro 4). Esto también puede observarse en las Figuras 11 y 12. Cuadro 4. Medidas descriptivas de las diferencias entre los valores observados y predichos para las DM, Ac, Pr, Bu y AGVs en el Rumen y Ciego. Medidas descriptivas n Media ( d ) Desviación estándar ( Sd ) Rango (máx-mín) Medidas descriptivas n Media ( d ) DDM(%) Rumen DAc(%) DPr(%) DBu(%) DAGVs(mM) 3 6.967 1.155 8 4.85 9.449 8 -11.896 5.373 8 6.75 4.837 5 86.551 25.274 2 22.9 14 12.8 55.687 DDM(%) Ciego DAc(%) DPr(%) DBu(%) DAGVs(mM) 3 -61.167 3 -6 3 0.333 3 -57.063 3 5.667 99 Desviación 19.107 1 0.577 1.155 estándar ( Sd ) Rango 38 2 1 2 (máx-mín) Una D al inicio de cada variable denota sus diferencias (di=yi-zi). 21.732 43.332 En las Figuras 13 y 14 se describe la exactitud de las predicciones de Wakax POS en el Ciego para DM, Ac, Pr, Bu y AGVs respecto a la recta y=z. Las Figuras 15 y 16 describen la relación entre el sesgo (di=yi-zi) y los valores simulados (zi) para dichas variables en el Ciego. De proyectar los puntos de las Figuras 13 y 14 en cada uno de los ejes y de observar la magnitud del sesgo para cada predicción en las Figuras 15 y 16, se tiene en términos generales que las predicciones para: (a) DM fueron bastante mayores a los observados y decrecen conforme crecen los observados, (b) Ac y Pr fueron relativamente exactos, siendo mayores para Ac y menores para Pr, (d) Bu fueron bastante exactos a los observados, y (e) AGVs fueron mayores a los observados y decrecen conforme decrecen los observados. En las Figuras 15 y 16 se observa sesgo proporcional para DM y AGVs. Yi 100 90 y=z 80 70 DM(%) 60 Ac(%) 50 Pr(%) 40 Bu(%) 30 20 10 0 0 10 20 30 40 50 60 70 80 90 100 Zi Figura 13. Dispersión de los puntos (zi, yi) para DM, Ac, Pr y Bu en el Ciego. y=z es la recta que representa la exactitud ideal. 100 Yi 180 160 y=z 140 120 100 80 60 40 20 0 0 20 40 60 80 100 120 140 160 180 Zi Figura 14. Dispersión de los puntos (zi, yi) para AGVs(mM) en el Ciego. y=z es la recta que representa la exactitud ideal. di 20 10 0 -10 0 10 20 30 40 50 60 70 80 90 100 -20 DM(%)P -30 Ac(%)P -40 Pr(%)P -50 Bu(%)P -60 -70 -80 -90 Zi Figura 15. Relación entre el sesgo (di=yi-zi) y los valores simulados o predichos (zi) para DM, Ac, Pr y Bu en el Ciego. 101 di 0 -10 0 20 40 60 80 100 120 140 160 180 -20 -30 -40 -50 -60 -70 -80 -90 Zi Figura 16. Relación entre el sesgo (di=yi-zi) y los valores simulados o predichos (zi) para AGVs(mM) en el Ciego. Del rango de las diferencias (di) para DM, Ac, Pr, Bu y AGVs en el Ciego, se tiene que el sesgo (di=yi-zi) presenta mayor amplitud para los AGVs, seguido por DM, Ac y Bu con igual rango y Pr (Cuadro 4). Esto también puede observarse en las Figuras 15 y 16. Ahora se describirán la eficiencia de modelado (MEF) y el coeficiente de determinación del modelo (CD), así como, los resultados obtenidos. La estadística MEF es similar al coeficiente de correlación de Pearson (r), el cual es interpretado como la proporción de la variación explicada por la recta de regresión ajustada, mientras que la MEF es la proporción de la variación explicada por la recta y=z, y en un ajuste perfecto ambas estadísticas tendrían un valor igual a uno (Tedeschi, ∧ 2006). Sustituyendo y i por zi en la expresión de r se obtiene MEF: 2 ∧ ⎞ ⎛ y y − ⎜ ∑ i i⎟ ⎠ r = 1 − i =1n ⎝ 2 ∑ (yi − y ) n i =1 102 n n MEF = 1 − 2 ∑ (yi − zi ) i =1 n ∑ (y − y ) i =1 2 i = 1− ∑ (d ) 2 i i =1 n ∑ (y − y ) 2 i i =1 ∧ donde yi es el i-ésimo valor observado, yi es el i-ésimo valor predicho por la recta de regresión ajustada, y es la media aritmética de los valores observados y zi es el i-ésimo valor simulado o predicho por el modelo a validar. La cota superior de MEF es uno (Loague y Green, 1991; Tedeschi, 2006), pero puede ser negativo (Loague y Green, 1991) y su cota inferior (teórica) es menos infinito (Tedeschi, 2006). Si MEF<0 los valores predichos por el modelo son peor que sencillamente usar la media observada y (Loague y Green, 1991). La MEF puede usarse como un buen indicador de la bondad del ajuste entre los valores observados y simulados (Mayer y Butler, 1993). El coeficiente de determinación del modelo (CD) es el cociente de la variación total de los datos observados entre el total de las diferencias al cuadrado de los valores simulados respecto a la media de los datos observados. n CD = ∑ (y − y ) i =1 n 2 i ∑ (z − y ) i =1 2 i En un ajuste perfecto CD valdría uno. La estadística CD indica la proporción de la variación total de los datos observados explicada por los datos simulados (Loague y Green, 1991). Un valor de CD cercano a uno indica una mejora en las predicciones del modelo, CD>1 es un indicador de baja predicción y si CD<1 de sobrepredicción (Tedeschi, 2006). Debido a que todos los valores de MEF resultaron menores que cero (Cuadro 5), se tiene que sería mejor usar la media de los valores observados para cada variable que las predicciones por el modelo, ya sea en el Rumen o en el Ciego. Los dos valores más grandes de MEF para las variables consideradas en el Rumen corresponden a Ac (-0.301) y a Bu (-1.357), los cuales indican una mejor exactitud respecto a la recta y=z para dichas variables (Figura 9). Para el Ciego, el valor más grande de MEF 103 corresponde a Bu (-0.5), la cual indica una mejor exactitud respecto a la recta y=z para dicha variable (Figura 13). Según Tedeschi (2006) un valor de CD cercano a uno indica una mejora en las predicciones del modelo, CD>1 es un indicador de baja predicción y si CD<1 de sobrepredicción. Por lo tanto de los valores de CD para las variables consideradas en el Rumen se tiene que el modelo: (a) predice mejor para Bu (0.585), (b) sobrepredice las variables DM (0.029), AGVs (0.05), Pr (0.117) y Bu (0.585), y (c) proporciona baja predicción para Ac (3.321) (Cuadro 5). Aunque de las Figuras 9-12 se observó que las predicciones para: (a) DM fueron menores a los observados, la cual es contrario a lo indicado con el CD, (c) Pr fueron mayores a los observados, (d) Bu fueron mayores a los observados, siendo mejor para valores observados bajos, y (e) AGVs fueron menores a los observados, siendo contrario a lo señalado con el CD. Así, algunas veces con el CD se obtienen resultados contrarios a lo observado en las técnicas gráficas de validación y en otras ocasiones resultados coincidentes. Esto se debe a que con el CD se comparan las distancias al cuadrado de los valores observados y predichos respecto a la media de los valores observados ( y ), y por consiguiente depende de que tan lejos se encuentran dichos valores de y . Respecto a los valores de CD para las variables consideradas en el Ciego se tiene que el modelo: (a) sobrepredice las variables DM (0.001), AGVs (0.028), Ac (0.025) y Pr (0.007), y (b) proporciona baja predicción para Bu (2) (Cuadro 5). Aunque de las Figuras 13-16 se observó que las predicciones para: (a) DM fueron bastante mayores a los observados (coincide con CD) y decrecen conforme crecen los observados, (b) Ac y Pr fueron relativamente exactos, siendo mayores para Ac (coincide con CD) y menores para Pr (contrario a CD), (d) Bu fueron bastante exactos a los observados, y (e) AGVs fueron mayores a los observados (coincide con CD) y decrecen conforme decrecen los observados. 104 Cuadro 5. Valores de las estadísticas MEF y CD para las variables DM, AGVs, Ac, Pr y Bu en el Rumen y Ciego. Rumen Estadística DM AGVs Ac Pr n=3 n=5 n=8 n=8 MEF -30.772 -19.593 -0.301 -8.896 CD 0.029 0.050 3.321 0.117 15.633% 152mM 64.85% 22.354% y Ciego (n=3) MEF -1257.342 -30.448 -40.25 -144.5 CD 0.001 0.028 0.025 0.007 11.5% 77.667mM 72.333% 21.667% y y denota la media aritmética de los valores observados Bu n=8 -1.357 0.585 12.625% -0.5 2 6% De los resultados obtenidos por medio de la eficiencia de modelado (MEF) y del coeficiente de determinación del modelo (CD), se sigue que la MEF proporciona resultados consistentes con los obtenidos de las técnicas visuales de validación que el CD. 105 6. CONCLUSIONES La validación de modelos mecanísticos basada en: (i) el procedimiento original de Freese (1960), (ii) los planteamientos de Rennie y Wiant (1978), Reynolds (1984), y (iii) las modificaciones y extensiones presentadas en este trabajo, constituyen un método estadístico formado por pruebas de hipótesis e intervalos de confianza, las cuales representan una alternativa inferencial para determinar si las salidas del modelo están suficientemente próximas a los valores observados del sistema real. El método permite analizar datos provenientes de modelos que presenten o no sesgo en sus pronósticos sin modificar la estructura del modelo, y donde el máximo error admisible es expresado en las mismas unidades del valor real. Se establecieron los supuestos, la estadística de prueba y el error crítico para el planteamiento original y alternativo del procedimiento de Freese cuando el modelo presenta o no sesgo en sus predicciones. El establecimiento de la exactitud requerida con D~ N(µD , σD2 ) y en presencia de SC puede formularse de dos maneras para e y α especificadas: (i) P(D ≤ e ) ≥ 1 − α se traduce en σD2 ≤ e2 , χ12,1− α y (ii) ( ) P( W ≤ e ) = P D − D ≤ e ≥ 1 − α se traduce en 2 ⎛ n ⎞ e σD2 ≤ ⎜ ⎟ 2 . Siendo (i) el más práctico de establecer. ⎝ n − 1⎠ χ1,1− α En los procedimientos para el caso en que el modelo presenta SP, se supone D~ N(µD , σD2 ) que se traduce en εRi ~ NI(0, σR2 ) para el modelo Di = β0 + β1Zi + εRi . La SCE en el numerador de la estadística de prueba corresponde a la del modelo estimado ∧ ∧ ∧ ∧ ∧ ∧ Di = β0 + β1 Zi y no a Yi = β01 + β11 Zi como presentó Freese (1960). 106 Se presentó un procedimiento alternativo al de Reynolds (1984) para determinar el ICB para ε, el cuantil 1-α de la distribución de |D|. Se obtuvo a partir de un ICB del (1- ( ) = (σ α’)100% para σ y de que la función τ σ 2 D 2 D 2 D ) 1 2 2 1,1− α χ = ε es monótona creciente. Se determinaron en términos del error crítico para el planteamiento original y alternativo, los ICB para el cuantil 1-α de la distribución de D − D y εR , cuando el modelo presenta SC o SP respectivamente. Las pruebas estadísticas y errores críticos para el planteamiento alternativo representan un enfoque más conservador que el original en el sentido que permite un valor más grande del máximo error admisible (e) para inferir que el modelo es aceptable en predicción del sistema. El error crítico a partir del planteamiento original o alternativo, puede emplearse para comparar dos o más modelos y para validar un modelo en predicción de varias variables. El modelo Wakax POS puede usarse para predecir la GPP por día de bovinos alimentados con caña de azúcar, maíz quebrado y/o melaza en una zona tropical de México, aunque requerirá un ajuste con base a la presencia de SC para incrementar la exactitud en sus pronósticos. Desde la perspectiva de la regresión el modelo presenta discrepancia por traslación, es un caso inexacto y preciso. El sesgo de las predicciones en el Rumen presenta mayor amplitud para los AGVs, seguido por Ac, Pr, Bu y DM. En el Ciego el sesgo tiene mayor amplitud para los AGVs, seguido por DM, Ac y Bu con igual rango y Pr. A diferencia del coeficiente de determinación del modelo (CD), la eficiencia de modelado (MEF) proporciona resultados consistentes con los obtenidos de las técnicas visuales de validación. 107 7. BIBLIOGRAFÍA Analla, M. (1998). Model validation through the linear regression fit to actual versus predicted values. Agric. Syst. 57:115-119. Barrales, V.L.; Peña, R.I.; Fernández, R.B. (2004). Model validation: an applied approach. Agric. Téc. 64(1):66-73. Beck, B. (2002). Model evaluation and performance. Encyclopedia of Environmetrics. John Wiley & Sons Chichester. 3:1275-1279. Bendell, T. (1986). Minimising misconceived models. The Statistician. 35(3):303-309. Box, G.E.P.; Hunter, W.G.; Hunter, J.S. (1999a). Modelado empírico. En: Estadística para investigadores. Introducción al diseño de experimentos, análisis de datos y construcción de modelos. Editorial Reverté. Barcelona, España. pp. 301-315. Box, G.E.P.; Hunter, W.G.; Hunter, J.S. (1999b). Construcción mecanicista de modelos. En: Estadística para investigadores. Introducción al diseño de experimentos, análisis de datos y construcción de modelos. Editorial Reverté. Barcelona, España. pp. 555-570. Casella, G.; Berger, R.L. (1990). Common Families of Distributions. En: Statistical inference. Wadsworth & Brooks/Cole. California, USA. pp. 85-127. Chilibroste, P. (2002). Evaluación de modelos detallados de rumen para predecir disponibilidad de nutrientes en sistemas intensivos de producción de leche bajo pastoreo. Arch. Latinoam. Prod. Anim. 10(3):232-240. Collao-Saenz, E.A.; Dijkstra, J.; Aguiar, P.P.C.; Bannink, A.; Arcuri, P.B.; Teixeira, J.C.; Olalquiaga, P.J.R.; David, F.M. (2005). Simulation model for particle dynamics in rumen of cattle fed sugarcane diet. Sci. Agric. (Piracicaba, Braz.). 62(2):102-110. 108 Conover, W.J. (1980). Statistics of the Kolmogorov-Smirnov type. En: Practical nonparametric statistics. 2a Ed. John Wiley & Sons. New York, USA. pp. 344-393. Csáki, C. (1985). Constructing the Mathematical Model. En: Simulation and systems analysis in agriculture. Elsevier. Amsterdam. pp. 43-48. Ek, A.R.; Monserud, R.A. (1979). Performance and comparison of stand growth models based on individual tree and diameter-class growth. Canada Journal Forest Research. 9:231-244. Filliben, J.J. (1975). The probability plot correlation coefficient test for normality. Technometrics. 17(1):111-117. Flavelle, P. (1992). A quantitative measure of model validation and its potential use for regulatory purpose. Advances in Water Resources. 15:5-13. France, J.; Thornley, J.H.M. (1984a). Techniques: dynamic deterministic modellig. En: Mathematical Models in Agriculture. Butterworth & Co (Publishers) Ltd. London. pp. 1536. France, J.; Thornley, J.H.M. (1984b). Role of mathematical models in agriculture and agricultural research. En: Mathematical Models in Agriculture. Butterworth & Co (Publishers) Ltd. London. pp. 1-14. Freese, F. (1960). Testing accuracy. Forest Sci. 6(2):139-145. Fub, H.; Dubitzky, W.; Downes, C.S.; Kurth, M.J. (2005). Mathematical models of cell cycle regulations. Briefings In Bioinformatics. 6(2):163-177. 109 Giordano, F.R.; Weir, M.D.; Fox, W.P. (1997a). Model fitting. En: A First Course in Mathematical Modeling. 2a Ed. Brooks/Cole Publishing Company, Pacific Grove. USA. pp. 134-165. Giordano, F.R.; Weir, M.D.; Fox, W.P. (1997b). The modeling process. En: A First Course in Mathematical Modeling. Brooks/Cole Publishing Company, Pacific Grove. USA. pp. 31-50. Graybill, F.A. (1976). General Linear Model. En: Theory and application of the linear model. Duxbury Press. USA. pp. 171-228. Gauch, H.G.; Hwang, J.T.G.; Fick, G.W. (2003). Model evaluation by comparison of model-based predictions and measured values. Agronomy Journal. 95:1442-1446. Hamilton, M.A. (1991). Model validation: an annotated bibliography. Communications in Statistics: Theory & Methods. 20:2207-2266. Harrington, H.J.; Tumay, K. (2000). Introduction to process simulation. En: Simulation Modeling Methods. The McGraw-Hill Companies, Inc. pp. 1-32. Harrison, S.R. (1990). Regression of a model on real-system output: an invalid test of model validity. Agric. Syst. 34:183-190. Halachmi, I.; Edan, Y.; Moallem, U.; Maltz, E. (2004). Predicting feed intake of the individual dairy cow. Journal of Dairy Science. 87:2254-2267. Hayirli, A.; Grummer, R.R.; Nordheim, E.V.; Crump, P.M. (2003). Models for predicting dry matter intake of Holsteins during the prefresh transition period. Journal of Dairy Science. 86:1771-1779. 110 Johnson, R.A.; Wichern, D.W. (2002). The multivariate normal distribution. En: Applied multivariate statistical analysis. 5a Ed. Prentice Hall. New Jersey, USA. pp. 149-209. Kobayashi, K.; Salam, M.U. (2000). Comparing simulated and measured values using mean squared deviation and its components. Agronomy Journal. 92:345-352. Loague, K.; Green, R.E. (1991). Statistical and graphical methods for evaluating solute transport models: Overview and applications. Journal of Contaminant Hydrology. 7:5173. McCarthy, M.A.; Possingham, H.P.; Day, J.R.; Tyre, A.J. (2001). Testing the accuracy of population viability analysis. Conservation Biology. 15(4):1030-1038. Mayer, D.G.; Butler, D.G. (1993). Statistical validation. Ecological Modelling. 68:21-32. Mayer, D.G.; Stuart, M.A.; Swain, A.J. (1994). Regression of real world data on model output: an appropriate overall test of validity. Agric. Syst. 45:93-104. Mitchell, P.L. (1997). Misuse of regression for empirical validation of models. Agric. Syst. 54(3):313-326. Montgomery, D.C. (2004a). Ajuste de modelos de regresión. En: Diseño y análisis de experimentos. 2ª Ed. Limusa Wiley, México, D.F. pp. 392-426. Montgomery, D.C. (2004b). Experimentos con un sólo factor: el análisis de varianza. En: Diseño y análisis de experimentos. 2ª Ed. Limusa Wiley, México, D.F. pp. 60-125. Montgomery, D.C. (2004c). Otros tópicos de diseño y análisis. En: Diseño y análisis de experimentos. 2ª Ed. Limusa Wiley, México, D.F. pp. 590-629. 111 Montgomery, D.C. (2004d). Experimentos comparativos simples. En: Diseño y análisis de experimentos. 2ª Ed. Limusa Wiley, México, D.F. pp. 21-59. Montgomery, D.C.; Peck, E.A.; Vining, G.G. (2002a). Validación de los modelos de regresión. En: Introducción al análisis de regresión lineal. 3ª Ed. CECSA. México, D.F. pp. 477-494. Montgomery, D.C.; Peck, E.A.; Vining, G.G. (2002b). Transformaciones y ponderación para corregir inadecuaciones del modelo. En: Introducción al análisis de regresión lineal. 3ª Ed. CECSA. México, D.F. pp. 155-184. Montgomery, D.C.; Peck, E.A.; Vining, G.G. (2002c). Regresión lineal simple. En: Introducción al análisis de regresión lineal. 3ª Ed. CECSA. México, D.F. pp. 13-60. Montgomery, D.C.; Peck, E.A.; Vining, G.G. (2002d). Apéndice C. Material suplementario. En: Introducción al análisis de regresión lineal. 3ª Ed. CECSA. México, D.F. pp. 529-566. Mood, A.M.; Graybill, F.A.; Boes, D.C. (1974a). Distributions of Functions of Random Variables. En: Introduction to the Theory of Statistics. 3a. Ed. McGraw-Hill. New York, USA. pp. 175-218. Mood, A.M.; Graybill, F.A.; Boes, D.C. (1974b). Sampling and Sampling Distributions. En: Introduction to the Theory of Statistics. 3a. Ed. McGraw-Hill. New York, USA. pp. 219-270. Mood, A.M.; Graybill, F.A.; Boes, D.C. (1974c). Tests of Hypotheses. En: Introduction to the Theory of Statistics. 3a. Ed. McGraw-Hill. New York, USA. pp. 401-481. 112 Mood, A.M.; Graybill, F.A.; Boes, D.C. (1974d). Parametric Interval Estimation. En: Introduction to the Theory of Statistics. 3a. Ed. McGraw-Hill. New York, USA. pp. 372400. Mood, A.M.; Graybill, F.A.; Boes, D.C. (1974e). Linear Models. En: Introduction to the Theory of Statistics. 3a. Ed. McGraw-Hill. New York, USA. pp. 482-503. Oberkampf, W.L.; Trucano, T.G. (2002). Verification y validation in computacional fluid dynamics. Progress in Aerospace Sciences. 38:209-272. Oreskes, N.; Shrader-Frechette, K.; Belitz, K. (1994). Verification, validation, and confirmation of numerical models in the earth sciences. Science. 263:641-646. Oreskes, N. (1998). Evaluation (not validation) of quantitative models for assessing the effects of environmental lead exposure. Environmental Health Perspectives. 106:14531460. Ramakrishnan, U.; Mountain, J.L. (2004). Precision and accuracy of divergence time estimates from STR and SNPSTR variation. Molecular Biology and Evolution. 21:19601971. Reckhow, K.H.; Clements, J.T.; Dodd, R.C. (1990). Statistical evaluation of mechanistic water-quality models. Journal Environmental Engineering. 116(2):250-268. Rennie, J.C.; Wiant, H.V.Jr. (1978). Modification of Freese’s chi-square test of accuracy. USDI Bureau of Land Management, Denver Colorado. Resource Inventory Notes. Note BLM 14:1-3. Reynolds, M.R.Jr.; Burkhart, H.E.; Daniels, R.F. (1981). Procedures for statistical validation of stochastic simulations models. Forest Sci. 27(2):349-364. 113 Reynolds, M.R.Jr. (1984). Estimating the error in model predictions. Forest Sci. 30(2):454-469. Richter, O.; Söndgerath, D. (1990). Introducción. En: Parameter Estimation in Ecology. VCH Verlagsgesellschaft mbH. Germany. pp. 1-9. Stephens, M.A. (1974). EDF statistics for goodness of fit and some comparisons. Journal of the American Statistical Association. 69(347):730-737. Sokal, R.R.; Rohlf, F.J. (2000). Assumptions of analysis of variance. En: Biometry, the principles and practice of statistics in biological research. 3a Ed. W.H. Freeman and Company. New York, USA. pp 392-450. Steel, R.G.D.; Torrie, J.H. (1988). Análisis de la varianza II: clasificaciones múltiples. En: Bioestadística: principios y procedimientos. 2ª Ed. McGraw-Hill/Interamericana. México, D.F. pp 188-230. Tedeschi, L.O. (2006). Assessment of the adequacy of mathematical models. Agric. Syst. 89:225–247. Vargas-Villamil, L.M. (2003). Desarrollo de un modelo dinámico mecanístico para la estimación de parámetros de crecimiento bacteriano ruminal mediante una técnica de doble ajuste. Tesis de Doctorado. Universidad Autónoma de Yucatán. México. 275 pp. Vargas-Villamil, L.M.; Ku-Vera, J.; Vargas-Villamil, F.; Medina-Peralta, S. (2004). Modelo para la estimación de tres parámetros ruminales biológico. Interciencia. 29(6):296-302. Vargas-Villamil, L.M.; Ku-Vera, J.; Vargas-Villamil, F.; Medina-Peralta, S. (2005). Evaluación de un sistema ruminal basado en caña de azúcar mediante un modelo dinámico mecanístico. Interciencia. 30(7):424-430. 114 Wackerly, D.D.; Mendenhall, W.; Scheaffer, R.L. (2002). Funciones de variables aleatorias. En: Estadística matemática con aplicaciones. 6a Ed. Thomson Learning. México, D.F. pp. 279-329. Yang, J.; Greenwood, D.J.; Rowell, D.L.; Wadsworth, G.A.; Burns, I.G. (2000). Statistical methods for evaluating a crop nitrogen simulation model, N_ABLE. Agric. Syst. 64:37– 53. Zar, J.H. (1999). Data transformations. En: Biostatistical analysis. 4a Ed. Prentice Hall. New Jersey, USA. pp 273-281. Zill, D.G. (2002). Introducción a las ecuaciones diferenciales. En: Ecuaciones diferenciales con aplicaciones de modelado. 7ª ed. Thomson Learning. México, D.F. pp. 1-38. 115 ANEXO I I.A. Descripción del modelo mecanístico del sistema crecimiento bacteriano, Turix El modelo dinámico mecanístico Turix fue desarrollado para la estimación de dos parámetros cinéticos y uno de rendimiento de ácidos grasos volátiles en un sistema cerrado de crecimiento bacteriano ruminal. El modelo esta compuesto por 11 variables de estado que describen el sistema (degradación del alimento, crecimiento y fermentación bacteriana) (Vargas-Villamil et al., 2004). En la Figura I.1 y Cuadro I.1 se presentan respectivamente un diagrama del modelo Turix y los símbolos usados. Su desarrollo, descripción, evaluación matemática y evaluación de un sistema ruminal basado en caña de azúcar por medio de Turix, se presenta con más detalle en VargasVillamil (2003), Vargas-Villamil et al. (2004) y Vargas-Villamil et al. (2005). Fuente: Vargas-Villamil et al. (2004) Figura I.1. Representación esquemática del modelo Turix. Cuadro I.1. Símbolos usados en el diagrama del modelo Turix. ND Fracción o fase lentamente degradable del alimento NS Fracción o fase rápidamente degradable del alimento SC Fracción o fase inmediatamente degradable del alimento Sm Sustrato microbiano L Sustrato intermedio M Biomasa bacteriana AGV Ácidos grasos volátiles AGV + CO2 Productos de la fermentación Vargas-Villamil et al. (2004) 116 I.B. Notación empleada en el modelo Wakax POS Cuadro I.2. Notación y abreviaciones empleadas en el modelo Wakax POS con excepción del submodelo de Crecimiento animal. ( C b D Sup Sub Sup General CbDSub Compartimiento o submodelo Proceso Descripción Sección Sustrato o tamaño de partícula ) Entrada (CD) C D Co, Pa, ZC, Z, O In, We (mg/h o g) ( Parámetro ajustado CbDSup Sub C b D Sup Sub Co, Pa, ZC, O c, y, f (ml/h*mg o g/g) C R, C Sm, AGV, Ac, Pr, Bu, Va ( Parámetro CbDSup Sub C b D Sup Sub D ) Co, Pa, ZC, Z, O i, b, d, p, a (g/g o 1/h) C R, C, D Sm, p, g, l, MS Constante (D) InVoRu, InVoCi, SiBa, DiPa, DiZC (ml/g o 1/h) ( Variable de estado CDSup Sub C D Sup Sub ) Co, Pa, ZC C, Q (mg o mg/ml, ) R, C, D Sm, L, M, Ac, Pr, Bu, Va, CO2, MS, U, W, V, Fi ( Flujo CDSup C D Sup ) ) Co, Pa, ZC, Z, O Descripción del proceso de la variable de estado x a y, Ex, In, D (mg/ml*h) R, C, D, A 117 Variable auxiliar (D) Descripción de la variable D Compartimiento o submodelo Co Concentrado Pa Pasto ZC Caña de azúcar Z Melaza O No relacionado a un compartimiento o submodelo específico c y f i d p a b Proceso Substrato de salida Rendimiento de AGV Coeficiente de fermentación Entrada de substrato en fracción de MS Tasa de degradación Tasa de pasaje Tasa de absorción Digestibilidad Descripción¥ In Ex D We C Ingreso al sistema Salida del sistema Substrato degradado Peso del animal Sup Concentración del substrato x ( CbCx ) Q SiBa InVon Dii Von in Cantidad del substrato x ( CbQ x ) Síntesis microbial Índice de volumen en n. Tasa de reducción de la partícula de i Volumen en n Entrada en n de substrato en proporción de volumen en n relacionado con i Tasa de pasaje en n de la partícula media relacionado a i Concentración en n de MS relacionado con i Flujo de la concentración de Sm y M a través de n relacionado con i Flujo de la cantidad de Sm y M a través de n relacionado con i Fracción no degradable de i Concentration de j dentro de n relacionado con i Fracción de j en el flujo a Ciego relacionado con i ipCnm ismCn iFluCSmMpn iFluQSmMpn Uni iCnj ijFlu Sección R Rumen Sup D Intestino C Ciego Substrato p Partícula pequeña g Partícula grande Sm Substrato microbial AGV Ácidos grasos volátiles M Biomasa MS Materia seca L Metabolito intermedio U Fracción no degradable CO2 Dióxido de carbono Va Valerato W Biomasa ruminal dentro del Ciego ¥ l Ac V Bu Fi Pr líquido Acetato Partícula reducida Butirato Fibra Propionato i = Co (Concentrado), Pa (Pasto), ZC (Caña de azúcar), Z (Melaza) 118 n = Ru (Rumen), D (Intestino), Ci (Ciego), O (Compartimiento o submodelo no definido) j = M (Biomasa), Ac (Acetato), Pr (Propionato), Butirato (Bu), Sm (Substrato microbial), MS (Materia seca). Cuadro I.3. Notación y abreviaciones empleadas en el submodelo de Crecimiento animal. Sup General CDSub C Compartimiento o submodelo D Descripción Sup Sección Sub Sustrato ( ) Entrada (CD) C D O We (g) D Descripción de la constante Constante (D) ( Variable de estado CDSup Sub C D Sup Sub ) O Q (molo o g) A aa, ACA, Pal, Fa ( Flujo CDSup ) C D Sup O Descripción del proceso de la variable de estado x a y, Ex, In, D (mol o g/h) A D Variable auxiliar (D) Descripción de la variable Compartimiento o submodelo O No relacionado a un compartimiento o submodelo específico Ex In We Q Indxy xy PMx Retx Descripción de constantes Salida del sistema Ingreso al sistema Peso del animal Sup Cantidad del substrato x ( CbQ x ) Índice de conversión de y a x Proporción de x dentro de y Peso molecular de x Eficiencia de retención de x 119 Reqxsy Forxoy IndMan MxA xi xsy xdy xty Indxy xMan Retx xDa Sección A Animal Requerimiento de x durante la síntesis de y Formación de x durante la oxidación de y Energía para “mantenimiento” en relación a su peso metabólico (kg^.75) Descripción de variables auxiliares Moles de x absorbidos Cantidad de x dentro del compartimiento i Gasto de x por mol de y sintetizada x formada por mol de y degradada x equivalente en mol de y Índice de conversión de y a x Moles (o equivalente) de x utilizado para “mantenimiento” Eficiencia de retención de x Incremento promedio diario de x aa aminoácido Substrato ACA Acetil Coenzima A Pal Palmitato x o y: Glu = Glucosa, Pro = Proteína, M = Biomasa, MS = Materia Seca, aa = aminoácido, ATP = Trifosfato de Adenosina, ACA = Acetil Coenzima A, Ac = Acetato, Pr = Propionato, Bu = Butirato, Pal = Palmitato, Fa = Grasa, Ga = Ganancia de peso i: A = Animal 120 I.C. Descripción del modelo Wakax POS A continuación se definen cinco “funciones” llamadas Turix (T), fSup, fD, f1R y f2C que serán referidas en los submodelos. Sea la “función” Turix definida por: ⎞ ⎛ d CSm d CM d CAc d CPr d CBu d CVa d CL d CCO 2 ⎜ ; k M, SmL , k LM, YPAGV ,SF , c Ac,Glu , c Pr,Glu , ⎟ , , , , , , , T⎜ dt dt dt dt dt dt dt dt ⎟ ⎟ ⎜c , c ⎠ ⎝ Bu,Glu Va,Glu donde las ocho expresiones diferenciales corresponden a las variables de estado del modelo Turix (Vargas-Villamil et al., 2004). Las siete constantes y parámetros localizados después del punto y coma, se reescriben en notación según el submodelo y sección correspondiente del modelo Wakax POS. En general para el submodelo C (Co, Pa, CZ) sección Sup (R, C): k M,SmL = CcCSup Sm , k LM = siBa , YPAGV ,SF = CyCSup AGV , c Ac,Glu = CfCSup Ac , Sup c Pr,Glu = CfCPr , Sup c Bu,Glu = CfCBu , c Va,Glu = CfCSup Va . Sea la “función” f Sup definida por: Sup Sup ⎛ d CCMSup d CCSup d CCSup d CCBu d CCPr Sup ⎞ Ac Va ⎜ ⎟ ; (CVA )MSup , (CVA )Sup , , , , Ac , (CVA )Pr , Sup f ⎜ dt dt dt dt dt ⎟ ⎜ (CVA )Sup , (CVA )Sup ; (CCP)Sup ⎟ Bu Va ⎝ ⎠ donde las cinco expresiones diferenciales corresponden a las variables de estado M, Ac, Pr, Bu y Va para el submodelo C (Co, Pa, CZ) sección Sup (R, C). (CVA )Sup Sub con Sub=M, Ac, Pr, Bu, Va, denota la(s) variable(s) auxiliar(es) para la variable de estado Sub y sección Sup en el submodelo C. (CCP)Sup denota las constantes y parámetros en el submodelo C sección Sup. Ecuaciones diferenciales para las variables de estado M, Ac, Pr, Bu y Va en el submodelo C sección Rumen (Sup=R): d CCRM = −CMMR dt d CCRAc = −CAcAc R − CAcABR dt 121 d CCRPr = −C Pr Pr R − C Pr GluR dt d CCRBu = −CBuBuR − CBuABR dt d CCRVa = −CVaVaR − CVaEx R dt Variables auxiliares para las variables de estado M, Ac, Pr, Bu y Va en el submodelo C sección Rumen (Sup=R): (CVA )RM : CMMR = CpCRm * CCRM (CVA )RAc : CAcAc R = CpCRl * CCRAc ; CAcABR = CaCRAc * CCRAc (CVA )RPr : C Pr Pr R = CpCRl * CCRPr ; C Pr GluR = CaCRPr * CCRPr (CVA )RBu : CBuBuR = CpCRl * CCRBu ; CBuABR = CaCRBu * CCRBu (CVA )RVa : CVaVaR = CpCRl * CCRVa ; CVaEx R = CaCRVa * CCRVa (CCP)R se especifican al final de la descripción de cada submodelo C sección Rumen (Sup=R). Ecuaciones diferenciales para las variables de estado M, Ac, Pr, Bu y Va en el submodelo C sección Ciego (Sup=C): d CCMC = −CMEx C dt d CCCAc = −CAcAc C − CAcABC dt C d CCPr = −C Pr Pr C − C Pr GluC dt C d CCBu = −CBuBuC − CBuABC dt d CCCVa = −CVaVa C − CVaEx C dt Variables auxiliares para las variables de estado M, Ac, Pr, Bu y Va en el submodelo C sección Ciego (Sup=C): (CVA )MC : CMEx C = CpCRm * CCMC 122 (CVA )CAc : CAcAc C = OpClC * CCCAc ; CAcABC = OaCCAc * CCCAc C C C C (CVA )Pr : C Pr Pr C = OpClC * CCPr ; C Pr GluC = OaCPr * CCPr C C C C (CVA )Bu : CBuBuC = OpClC * CCBu ; CBuABC = OaCBu * CCBu (CVA )CVa : CVaVaC = OpClC * CCCVa ; CVaEx C = OaCCVa * CCCVa (CCP)C se especifican al final de la descripción de cada submodelo C sección Ciego (Sup=C). Sea la “función” f D definida por: ⎛ d CCDSm d CCDMS d CCDM d CCDAc d CCDPr d CCDBu d CCDVa ⎞ ⎜ , , , , , , ; (CVA )DSm , (CVA )DMS ⎟ D f ⎜ dt dt dt dt dt dt dt ⎟ ⎜ (CVA )D , (CVA )D , (CVA )D , (CVA )D , (CVA )D , (CRMTP); (CCP)D ⎟ M Ac Pr Bu Va ⎝ ⎠ donde las siete expresiones diferenciales corresponden a las variables de estado Sm, MS, M, Ac, Pr, Bu y Va para el submodelo C (Co, Pa, CZ) sección Intestino (Sup=D). CRMTP denota la razón media del tamaño de la partícula en el submodelo C. (CVA )DSub con Sub=Sm, MS, M, Ac, Pr, Bu, Va, denota la(s) variable(s) auxiliar(es) para la variable de estado Sub y sección D en el submodelo C. (CCP)D denota las constantes y parámetros para el submodelo C sección D. Ecuaciones diferenciales para las variables de estado Sm, MS, M, Ac, Pr, Bu y Va en el submodelo C sección Intestino (Sup=D): d CCDSm = CSmSmD − CSmGluD − CSmSmDC dt d CCDMS = CMSMSD − CMSGluD − CMSMSDC dt d CCDM = CMMD − CMaaD − CMSmDC dt d CCDAc = CAcAc D − CAcABD − CAcAc DC dt d CCDPr = C Pr Pr D − C Pr GluD − C Pr Pr DC dt d CCDBu = CBuBuD − CBuABD − CBuBuDC dt 123 d CCDVa = CVaVaD − CVaEx D − CVaVaDC dt Variables auxiliares para las variables de estado Sm, MS, M, Ac, Pr, Bu y Va en el submodelo C sección Intestino (Sup=D): (CVA )DSm : CSmSmD = CSmSmR ; CSmGluD = CCDSm * CpCDl * CbCDSm ; CSmSmDC = CCDSm * CpCDl * (1 − CbCDSm ) (CVA )DMS : CMSMSD = CUMSR + CMSMSR + CVMSR ; CMSGluD = CpCDm * CbCDM * CCDMS ; CMSMSDC = CCDMS * CpCDm * (1 − CbCDMS ) (CVA )DM : CMMD = CMMR ; CMaaD = CCDM * CpCDm * CbCDM; CMSmDC = CCDM * CpCDm * (1 − CbCDM ) (CVA )DAc : CAcAc D = CAcAc R ; CAcABD = CaCDAc * CCDAc ; CAcAc DC = CpCDl * CCDAc (CVA )DPr : C Pr Pr D = C Pr Pr R ; C Pr GluD = CaCDPr * CCDPr ; C Pr Pr DC = CpCDl * CCDPr (CVA )DBu : CBuBuD = CBuBuR ; CBuABD = CaCDBu * CCDBu ; CBuBuDC = CpCDl * CCDBu (CVA )DVa : CVaVaD = CVaVaR ; CVaEx D = CaCDVa * CCDVa ; CVaVaDC = CpCDl * CCDVa ( ) CRMTP : CpCDm = CpCDp + CpCDg / 2 (CCP)D se especifican al final de la descripción de cada submodelo C sección Intestino (Sup=D). Sea la “función” f1R definida por: ⎛ d CCRMS d CCRV d CCRU ⎞ f1R ⎜⎜ , , ; (CVA )RMS , (CVA )RV , (CVA )RU ; (CCP)1R ⎟⎟ dt dt ⎝ dt ⎠ donde las tres expresiones diferenciales corresponden a las variables de estado MS, V y U para el submodelo C (Pa, CZ) sección Rumen (Sup=R). (CVA )RSub con Sub=MS, V, U denota la(s) variable(s) auxiliar(es) para la variable de estado Sub y sección R en el submodelo C. (CCP)1R denota las constantes y parámetros en el submodelo C sección R. Ecuaciones diferenciales para las variables de estado MS, V y U en el submodelo C sección Rumen (Sup=R): 124 d CCRMS = CInMSR − CMSSmR − CMSV R − CMSMSR dt d CCRV = CMSV R − CVSmR − CVMSmR dt d CCRU = CInUR − CUMSR dt Variables auxiliares para las variables de estado MS, V y U en el submodelo C sección Rumen (Sup=R): (CVA )RMS : CInMSR = CRu * CiCRMS ; CRu = (CIn / VoRu) / 24; CMSSmR = CdCRMS * CCRMS ; CMSV R = DiC * CCRMS ; CMSMSR = CpCRg * CCRMS (CVA )RV : CVSmR = CdCRMS * CCRV ; CVMSR = CpCRp * CCRV (CVA )RU : CInUR = CRu * UnC; UnC = 1 − CiCRMS − CiCRSm ; CUMSR = CpCRg * CCRU CpCRm = (CpCRg + CpCRp ) / 2 (CCP)1R se especifican al final de la descripción de cada submodelo C sección Rumen (Sup=R). Sea la “función” f2C definida por: C ⎛ d CCMS ⎞ d CCCW C f2C ⎜⎜ , ; (CVA )MS , (CVA )CW ; (CCP)C2 ⎟⎟ dt ⎝ dt ⎠ donde las dos expresiones diferenciales corresponden a las variables de estado MS y W para el submodelo C (Pa, CZ) sección Ciego (Sup=C). (CVA )CSub con Sub=MS, W denota la(s) variable(s) auxiliar(es) para la variable de estado Sub y sección C en el submodelo C. (CCP)C2 denota las constantes y parámetros en el submodelo C sección C. Ecuaciones diferenciales para las variables de estado MS y W en el submodelo C sección Ciego (Sup=C). C d CCMS = CMSMSC − CMSSmC − CMSEx C dt d CCCW = CMWC C − CWSm C − CWEx DC dt 125 Variables auxiliares para las variables de estado MS y W en el submodelo C sección Ciego (Sup=C): C (CVA )MS : CMSMSC = CCi * CMSFlu; CCi = CFluQSmMpC / VoCi; CMSFlu = CMSMSDC / CFluCSmMpC; CFluQSmMpC = CFluCSmMpC * VoRu; VoCi = We * InVoCi; CFluCSmMpC = CMSmDC + CMSMSDC + CSmSmDC ; C C C CMSSmC = CdCMS * CCMS ; CMSEx C = CpCpC * CCMS (CVA )CW : CMWC C = CCi * CMFlu; CMFlu = CMSmDC / CFluCSmMpC; CWSm C = CdCCW * CCCW ; CWEx C = CpCpC * CCCW ; CpCCm = (CpCpC + OpClC ) / 2 (CCP)C2 se especifican al final de la descripción de cada submodelo C sección Ciego (Sup=C). En los siguientes cuadros se describe cada submodelo con sus secciones. Cuadro I.4. Submodelo Concentrado (Co). Sección Rumen Variable de estado Sm: dCoCRSm = Co ln SmR − CoSmSmR − CoSmGluR dt Variables auxiliares: Co ln SmR = CoRu * CoiCRSm CoRu = (CoIn/VoRu)/24 VoRu = InVoRu*We CopCRm = (CopCRg + CopCRp ) / 2 CoSmSmR = CopCRl * CoCRSm CoSmGluR = CoaCRSm * CoCRSm Las ecuaciones diferenciales y variables auxiliares para las variables de estado M, Ac, Pr, Bu y Va del submodelo Concentrado sección Rumen se obtienen de las “funciones” Turix y fSup: ⎞ ⎛ d CSm d CM d CAc d CPr d CBu d CVa d CL d CCO 2 ⎜ ; k M, SmL , k LM, YPAGV ,SF , c Ac,Glu , c Pr,Glu , ⎟ , , , , , , , T⎜ dt dt dt dt dt dt dt dt ⎟ ⎟ ⎜c ⎠ ⎝ Bu,Glu , c Va,Glu Sup Sup ⎛ d CCMSup d CCSup d CCPr d CCBu d CCSup Sup ⎞ Ac Va ⎟ ⎜ , , , , ; (CVA )MSup , (CVA )Sup Ac , (CVA )Pr , Sup f ⎜ dt dt dt dt dt ⎟ ⎟ ⎜ (CVA )Sup , (CVA )Sup ; (CCP)Sup Bu Va ⎠ ⎝ al sustituir C=Co y Sup=R. 126 Constantes y parámetros (CCP)R : InVoRu, CoiCRSm , CopCRg , CopCRp , CopCRl , CoaCRSm , CoaCRAc , CoaCRPr , CoaCRBu , CoaCRVa Entradas: Modelo: CoIn, We. Sección Ciego Variable de estado Sm: dCoCCSm = CoSrSmC − CoSmEx C dt Variable auxiliar: CoSrSmC = CoCi CoCi = CoFluQSmMpC/VoCi CoFluQSmMpC = CoFluCSmMpC*VoRu CoFluCSmMpC = CoMSmDC + CoSmSmDC VoCi = We*InVoCi CopCRm = (CopCpC + CopClC ) / 2 CoSmEx C = OpClC * CoCCSm Las ecuaciones diferenciales y variables auxiliares para las variables de estado M, Ac, Pr, Bu y Va del submodelo Concentrado sección Ciego se obtienen de las “funciones” Turix y fSup: ⎞ ⎛ d CSm d CM d CAc d CPr d CBu d CVa d CL d CCO 2 ⎜ ; k M, SmL , k LM, YPAGV ,SF , c Ac,Glu , c Pr,Glu , ⎟ , , , , , , , T⎜ dt dt dt dt dt dt dt dt ⎟ ⎟ ⎜c ⎠ ⎝ Bu,Glu , c Va,Glu Sup Sup ⎛ d CCMSup d CCSup d CCPr d CCBu d CCSup Sup ⎞ Ac Va ⎟ ⎜ , , , , ; (CVA )MSup , (CVA )Sup Ac , (CVA )Pr , Sup f ⎜ dt dt dt dt dt ⎟ ⎟ ⎜ (CVA )Sup , (CVA )Sup ; (CCP)Sup Bu Va ⎠ ⎝ al sustituir C=Co y Sup=C: C C Constantes y parámetros (CCP)C : InVoCi, CopCpC , OpClC , OaCCAc , OaCPr , OaCBu , OaCCVa Entradas: Otro submodelo o sección: CoMSmDC , CoSmSmDC , VoRu Sección Intestino Las ecuaciones diferenciales y variables auxiliares para las variables de estado Sm, M, Ac, Pr, Bu y Va del submodelo Concentrado sección Intestino se obtienen de la “función” fD: ⎛ d CCDSm d CCDM d CCDAc d CCDPr d CCDBu d CCDVa ⎞ ⎜ , , , , , ; (CVA )DSm , (CVA )DM, (CVA )DAc , ⎟ D f ⎜ dt dt dt dt dt dt ⎟ ⎜ (CVA )D , (CVA )D , (CVA )D , (CRMTP); (CCP)D ⎟ Pr Bu Va ⎝ ⎠ 127 al sustituir C=Co, Sup=D y de no tomar en cuenta las que corresponden a MS. Constantes y parámetros (CCP)D : CopCDp , CopCDl , CobCDSm , CobCDM, CoaCDAc , CoaCDPr , CoaCDBu , CoaCDVa Entradas: Otro submodelo o sección: CoSmSmR , CoMMR , CoAcAc R , CoVaVaR , Co Pr Pr R , CoBuBuR Cuadro I.5. Submodelo Pasto (Pa). Sección Rumen Variable de estado Sm: dPaCRSm = PaMSSmR + Pa ln SmR + PaVSmR − PaSmSm R − PaSmGluR dt Variable auxiliar: Pa ln SmR = PaRu * PaiCRSm PaSmSmR = PapCRl * PaCRSm PaSmGluR = PaaCRSm * PaCRSm PapCRm = (PapCRg + PapCRp ) / 2 Las ecuaciones diferenciales y variables auxiliares para las variables de estado M, Ac, Pr, Bu y Va del submodelo Pasto sección Rumen se obtienen de las “funciones” Turix y fSup: ⎞ ⎛ d CSm d CM d CAc d CPr d CBu d CVa d CL d CCO 2 ⎜ ; k M, SmL , k LM, YPAGV ,SF , c Ac,Glu , c Pr,Glu , ⎟ , , , , , , , T⎜ dt dt dt dt dt dt dt dt ⎟ ⎟ ⎜c ⎠ ⎝ Bu,Glu , c Va,Glu Sup Sup ⎛ d CCMSup d CCSup d CCPr d CCBu d CCSup Sup ⎞ Ac Va ⎟ ⎜ , , , , ; (CVA )MSup , (CVA )Sup Ac , (CVA )Pr , Sup f ⎜ dt dt dt dt dt ⎟ ⎟ ⎜ (CVA )Sup , (CVA )Sup ; (CCP)Sup Bu Va ⎠ ⎝ al sustituir C=Pa y Sup=R. Constantes y parámetros (CCP)R : PapCRg , PapCRp , PapCRl , PaaCRSm , PaiCRSm , PaaCRAc , PaaCRPr , PaaCRBu , PaaCRVa Entradas: Otro submodelo o sección: PaMSSmR , PaRu Las ecuaciones diferenciales y variables auxiliares para las variables de estado MS, V y U del submodelo Pasto sección Rumen se obtienen de la “función” f1R : ⎛ d CCRMS d CCRV d CCRU ⎞ f ⎜⎜ , , ; (CVA )RMS , (CVA )RV , (CVA )RU ; (CCP)1R ⎟⎟ dt dt ⎝ dt ⎠ R 1 128 al sustituir C=Pa y Sup=R. Donde a la primera variable auxiliar en (CVA )RMS se le suma CoInMSR. Constantes y parámetros (CCP)1R : CoiCRFi, Dipa, PapCRg , PapCRp Entradas: Modelo: PaIn, PaiCRMS , PaiCRSm Otro submodelo o sección: CoRu, CoInMSR , PadCRMS , CoInMSR, VoRu Sección Ciego Variable de estado Sm: dPaCCSm = PaMSSmC + PaWSSm C + PaSmSm C − PaSmEx C dt Variable auxiliar: PaSmSm C = PaSmFlu PaSmEx C = OpClC * PaCCSm PapCRm = (PapCpC + PapClC ) / 2 Las ecuaciones diferenciales y variables auxiliares para las variables de estado M, Ac, Pr, Bu y Va del submodelo Pasto sección Ciego se obtienen de las “funciones” Turix y fSup: ⎞ ⎛ d CSm d CM d CAc d CPr d CBu d CVa d CL d CCO 2 ⎜ , , , , , , , ; k M, SmL , k LM, YPAGV ,SF , c Ac,Glu , c Pr,Glu , ⎟ T⎜ dt dt dt dt dt dt dt dt ⎟ ⎟ ⎜c , c ⎠ ⎝ Bu,Glu Va,Glu Sup Sup ⎛ d CCMSup d CCSup d CCPr d CCBu d CCSup Sup ⎞ Ac Va ⎟ ⎜ , , , , ; (CVA )MSup , (CVA )Sup Ac , (CVA )Pr , Sup f ⎜ dt dt dt dt dt ⎟ ⎟ ⎜ (CVA )Sup , (CVA )Sup ; (CCP)Sup Bu Va ⎠ ⎝ al sustituir C=Pa y Sup=C. C C Constantes y parámetros (CCP)C : PapCpC , OpClC , OaCCAc , OaCPr , OaCBu , OaCCVa Entradas: Otro submodelo o sección : PaSmFlu Las ecuaciones diferenciales y variables auxiliares para las variables de estado MS y W del submodelo Pasto sección Ciego se obtienen de la “función” f2C : C ⎛ d CCMS ⎞ d CCCW C f2C ⎜⎜ , ; (CVA )MS , (CVA )CW ; (CCP)C2 ⎟⎟ dt ⎝ dt ⎠ al sustituir C=Pa y Sup=C. C Constantes y parámetros (CCP)C2 : PadCMS , PapCpC , OpClC , PadCCW 129 Entradas: Modelo: We Otro submodelo o sección: InVoCi, VoRu, PaMSSmDC , PaSmSmDC , PaMSMSDC , PaFluCSmMpC Sección Intestino Las ecuaciones diferenciales y variables auxiliares para las variables de estado Sm, MS, M, Ac, Pr, Bu y Va del submodelo Pasto sección Intestino se obtienen de la “función” fD: ⎛ d CCDSm d CCDMS d CCDM d CCDAc d CCDPr d CCDBu d CCDVa ⎞ ⎜ , , , , , , ; (CVA )DSm , (CVA )DMS ⎟ D f ⎜ dt dt dt dt dt dt dt ⎟ ⎜ (CVA )D , (CVA )D , (CVA )D , (CVA )D , (CVA )D , (CRMTP); (CCP)D ⎟ M Ac Pr Bu Va ⎝ ⎠ al sustituir C=Pa y Sup=D. Constantes y parámetros (CCP)D : PabCDM, PabCDSm , PabCDMS , PapCDg , PapCDp , PapCDl , PaaCDAc , PaaCDPr , PaaCDBu , PaaCDVa Entradas: Otro submodelo o sección: Pa Pr Pr R , PaAcAc R , PaMMR , PaSmSm R , PaVaVaR , PaaCDVa , PaaCDBu , PaBuBuR Cuadro I.6. Submodelo Caña de azúcar (CZ). Sección Rumen Variable de estado Sm: dCZCRSm = CZMSSmR + CZInSmR + CZVSmR − CZSmSmR − CZSmGluR dt Variable auxiliar: CZInSmR = CZRu * CZiCRSm CZSmSmR = CZpCRl + CZCRSm CZSmGluR = CZaCRSm * CZCRSm CZpCRm = (CZpCRg + CZpCRp ) / 2 Las ecuaciones diferenciales y variables auxiliares para las variables de estado M, Ac, Pr, Bu y Va del submodelo Caña de azúcar sección Rumen se obtienen de las “funciones” Turix y fSup: ⎞ ⎛ d CSm d CM d CAc d CPr d CBu d CVa d CL d CCO 2 ⎜ ; k M, SmL , k LM, YPAGV ,SF , c Ac,Glu , c Pr,Glu , ⎟ , , , , , , , T⎜ dt dt dt dt dt dt dt dt ⎟ ⎟ ⎜c , c ⎠ ⎝ Bu,Glu Va,Glu Sup Sup ⎛ d CCMSup d CCSup d CCPr d CCBu d CCSup Sup ⎞ Ac Va ⎟ ⎜ , , , , ; (CVA )MSup , (CVA )Sup Ac , (CVA )Pr , Sup f ⎜ dt dt dt dt dt ⎟ ⎟ ⎜ (CVA )Sup , (CVA )Sup ; (CCP)Sup Bu Va ⎠ ⎝ 130 al sustituir C=CZ y Sup=R. Constantes y parámetros (CCP)R : CZpCRg , CZpCRp , CZpCRl , CZaCRSm , CZiCRSm , CZaCRAc , CZaCRPr , CZaCRBu , CZaCRVa Entradas: Otro submodelo o sección: CZMSSmR, ZCRu Las ecuaciones diferenciales y variables auxiliares para las variables de estado MS, V y U del submodelo Caña de azúcar sección Rumen se obtienen de la “función” f1R : ⎛ d CCRMS d CCRV d CCRU ⎞ f ⎜⎜ , , ; (CVA )RMS , (CVA )RV , (CVA )RU ; (CCP)1R ⎟⎟ dt dt ⎝ dt ⎠ al sustituir C=CZ y Sup=R. R 1 Constantes y parámetros (CCP)1R : DiZC, CZpCRg , CZpCRp Entradas: Modelo: CZdCRMS , CZIn, CZiCRMS , CZiCRSm Otro submodelo o sección: VoRu Sección Ciego Variable de estado Sm: dCZCCSm = CZMSSmC + CZWSm C + CZSmSm C − CZSmEx C dt Variable auxiliar: CZSmSmC = CZCi * CZSmFlu CZSmEx C = OpClC * CZCCSm CZpCRm = (CZpCpC + CZpClC ) / 2 Las ecuaciones diferenciales y variables auxiliares para las variables de estado M, Ac, Pr, Bu y Va del submodelo Caña de azúcar sección Ciego se obtienen de las “funciones” Turix y fSup: ⎞ ⎛ d CSm d CM d CAc d CPr d CBu d CVa d CL d CCO 2 ⎜ ; k M, SmL , k LM, YPAGV ,SF , c Ac,Glu , c Pr,Glu , ⎟ , , , , , , , T⎜ dt dt dt dt dt dt dt dt ⎟ ⎟ ⎜c , c ⎠ ⎝ Bu,Glu Va,Glu Sup Sup ⎛ d CCMSup d CCSup d CCPr d CCBu d CCSup Sup ⎞ Ac Va ⎟ ⎜ , , , , ; (CVA )MSup , (CVA )Sup Ac , (CVA )Pr , Sup f ⎜ dt dt dt dt dt ⎟ ⎟ ⎜ (CVA )Sup , (CVA )Sup ; (CCP)Sup Bu Va ⎠ ⎝ al sustituir C=CZ y Sup=C. C C Constantes y parámetros (CCP)C : CZpCpC , OpClC , OaCCAc , OaCPr , OaCBu , OaCCVa 131 Entradas: Otro submodelo o sección: CZSmFlu, CZCi, CZSmFlu Las ecuaciones diferenciales y variables auxiliares para las variables de estado MS y W del submodelo Caña de azúcar sección Ciego se obtienen de la “función” f2C : C ⎛ d CCMS ⎞ d CCCW C f ⎜⎜ , ; (CVA )MS , (CVA )CW ; (CCP)C2 ⎟⎟ dt ⎝ dt ⎠ al sustituir C=CZ y Sup=C. C 2 C Constantes y parámetros (CCP)C2 : CZdCMS , CZdCCW , CZpCpC , OpClC Entradas: Modelo: We Otro submodelo o sección: CZMSMSDC , PaMSmDC , PaSmSmDC , InVoCi, VoRu, PaFluCSmMpC Sección Intestino Las ecuaciones diferenciales y variables auxiliares para las variables de estado Sm, MS, M, Ac, Pr, Bu y Va del submodelo Caña de azúcar sección Intestino se obtienen de la “función” fD: ⎛ d CCDSm d CCDMS d CCDM d CCDAc d CCDPr d CCDBu d CCDVa ⎞ ⎜ , , , , , , ; (CVA )DSm , (CVA )DMS ⎟ D f ⎜ dt dt dt dt dt dt dt ⎟ ⎜ (CVA )D , (CVA )D , (CVA )D , (CVA )D , (CVA )D , (CRMTP); (CCP)D ⎟ M Ac Pr Bu Va ⎝ ⎠ al sustituir C=CZ y Sup=D. Constantes y parámetros (CCP)D : CZbCDSm , CZbCDMS , CZbCDM, CZaCDAc , CZaCDPr , CZaCDBu , CZaCDVa , CZpCDg , CZpCDp , CZpCDl Entradas: Otro submodelo o sección: CZVaVaR , CZBuBuR , CZ Pr Pr R , CZAcAc R , CZMMR , CZSmSmR Cuadro I.7. Submodelo Melaza. Variable de estado Sm: dZCDSm = ZInSmR dt Variable auxiliar: ZInSmR = ZiCRSm * ZRu ZRu = (ZIn / VoRu) / 24 Constantes y parámetros: ZiCRSm Entradas: Modelo: ZIn Otro submodelo o sección: VoRu 132 Cuadro I.8. Ecuaciones descriptivas. OsmCR = CosmCR + PasmCR + ZCsmCR OsmCC = CosmCC + PasmCC + ZCsmCC OCRM = CoCRM + PaCRM + ZCCRM OCRAc = CoCRAc + PaCRAc + ZCCRAc OCRPr = CoCRPr + PaCRPr + ZCCRPr OCRBu = CoCRBu + PaCRBu + ZCCRBu OCRVa = CoCRVa + PaCRVa + ZCCRVa OCCM = CoCCM + PaCCM + ZCCCM OCCAc = CoCCAc + PaCCAc + ZCCCAc OCCPr = CoCCPr + PaCCPr + ZCCCPr OCCBu = CoCCBu + PaCCBu + ZCCCBu OCCVa = CoCCVa + PaCCVa + ZCCCVa CosmCR = CoCRM + CoCRSm + CoCRAc + CoCRPr + CoCRBu + CoCRVa C C CosmCC = CoCMC + CoCCSm + CoCCAc + CoCPr + CoCBu + CoCCVa PasmCR = PaCRU + PaCRMS + PaCRV + PaCRSm + PaCRM + PaCRAc + PaCRPr + PaCRBu + PaCRVa C C C PasmCC = PaCMS + PaCCSm + PaCMC + PaCCAc + PaCPr + PaCBu + PaCCVa CZsmCR = CZCRU + CZCRMS + CZCRV + CZCRSm + CZCRM + CZCRAc + CZCRPr + CZCRBu + CZCRVa C C C CZsmCC = CZCMS + CZCCSm + CZCMC + CZCCAc + CZCPr + CZCBu + CZCCVa CoInMSR = CoRu * CoiCRFi Cuadro I.9. Submodelo Crecimiento animal. Proteína ProA = (((CoMaaD+PaMaaD+ZCMaaD)*VoRu)*ProM)+(MSA*ProMS) Ácidos grasos volátiles AcA = AcR+AcD+AcC AcR = (CoAcABR+PaAcABR+ZCAcABR)*VoRu AcD = (CoAcABD+PaAcABD+ZCAcABD)*VoRu AcC = (CoAcABC+PaAcABC+ZCAcABC)*VoCi PrA = PrC+PrD+PrR PrR = (CoPrGluR+PaPrGluR+ZCPrGluR)*VoRu PrD = (CoPrGluD+PaPrGluD+ZCPrGluD)*VoRu PrC = (CoPrGluC+PaPrGluC+ZCPrGluC)*VoCi PrBu = BuR+BuD+BuC BuR = (CoBuABR+PaBuABR+ZCBuABR)*VoRu BuD = (CoBuABD+PaBuABD+ZCBuABD)*VoRu BuC = (CoBuABC+PaBuABC+ZCBuABC)*VoCi VaA = VaR+VaD+VaC VaR = (CoVaExR+PaVaExR+ZCVaExR)*VoRu VaD = (CoVaExD+PaVaExD+ZCVaExD)*VoRu VaC = (CoVaExCa+PaVaExCa+ZCVaExCa)*VoCi 133 Entrada: Del modelo Ruminal: CoMaaD, PaMaaD, ZCMaaD, VoRu, ProM, MSA, ProMS, CoAcABR, PaAcABR, ZCAcABR, CoAcABD, PaAcABD, ZCAcABD, CoAcABC, PaAcABC, ZCAcABC, CoPrGluR, PaPrGluR, ZCPrGluR, CoPrGluD, PaPrGluD, ZCPrGluD, CoPrGluC, PaPrGluC, ZCPrGluC, CoBuABR, PaBuABR, ZCBuABR, CoBuABD, PaBuABD, ZCBuABD, CoBuABC, PaBuABC, ZCBuABC, CoVaExD, PaVaExD, ZCVaExD, CoVaExCa, PaVaExCa, ZCVaExCa Variable de estado aa: A dOQaa = OMaa A − Oaa Pr o A − OaaEx A dt Variable auxiliar: OMaa A = aaA Oaa Pr o A = OMaaA * Re tPC aaA = ((ProA*aaPC)/1000)/PMaa OaaEx A = OMaaA − Oaa Pr o A Entrada: Otro submodelo o sección: ProA Constantes y parámetros: aaPC, PMaa, RetPC Variable de estado ACA: dOQ AACA = OInACA A − OACAACA A − OACAManA − OACAEx A dt Variable auxiliar: OInACAA = ACAtAcBu+ACAtGlu+ACAtPr+ACAtaa ACAtAcBu = (((AcA/1000)/PMAc)*IndACAAc)+ (((BuA/1000)/PMBu)*IndACABu) ACAtGlu = ((SmA/1000)/PMGlu)*IndACAGlu ACAtPr = IndACAPr * mPrA IndACAPr = ForATPoPr/ForATPoACA mPrA = (PrA/1000)/PMPr ACAtaa = ATPdeaa/ForATPoACA ATPdeaa = ATPdaa-ATPsPro ATPdaa = OaaExA * ForATPoaa ATPsPro = ReqATPsaa*OaaProA OACAACA A = (OInACA A − OACAManA ) * Re tPal RetPal = 1-(ACAsPal/(ACAsPal+ReqACAsPal)) ACAsPal = ReqATPsPal/ForATPoACA OACAManA = ACAMan ACAMan = ATPMan/ForATPoACA ATPMan = (((IndMan*(OWe/1000)^.75)/IndCalATP)/24)*cC OACAEx A = (OInACA A − OACAManA ) * (1 − Re tPal) Entrada: Otro submodelo o sección: AcA, BuA, SmA, para, cC Constantes y parámetros: PMAc, IndACAAc, PMBu, IndACABu, PMGlu, IndACAGlu, 134 ForATPoPr, ForATPoACA, PMPr, ForATPoaa, ReqATPsaa, ReqATPsPal, ForATPoACA, ReqACAsPal, OWe, IndMan, IndCalATP ForATPoACA, Variable de estado Pal: A dOQPal = OACAPal A − OPalPal A − OPalEx A dt OACAPalA = OACAACA A / Re qACAsPal OPalPalA = OACAPalA - OPalExA OPalExA = PalNo PalNo = ACAsFa/ReqACAsPal ACAsFa = ATPsFa/ForATPoACA ATPsFa = OACAPalA * ReqATPsFa Entrada: Otro submodelo o sección: OACAACAA Constantes y parámetros: ReqATPsFa Variable de estado Fa: A dOQFa = OPalFa A + OGliFa A dt OPalFaA = RetFa * OPalPalA * PMPal RetFa = 1-(PalsFa/(PalsFa+ReqPalsFa)) PalsFa = GlusFa/ReqACAsPal GlusFa = ReqGlusFa/ForATPoACA OGliFaA = (OPalPalA * RetFa/3)*PMGli Entrada: Otro submodelo o sección: OPalPalA, PMGli Constantes y parámetros: ReqGlusFa, ForATPoACA, ReqACAsPal, ReqPalsFa, PMPal Ganancia de peso GaDa = ProDa + FaDa ProDa = ((OaaProACorregido*PMaa)/.2201)*24 OaaProACorregido = OaaProA Difaa = DifATP/ForATPoaa DifATP = DifACA * ForATPoACA DifACA = ACAMan-OInACAA FaDa = O3Pal1GliFaA * 24 O3Pal1GliFaA = OPalFaA + OGliFaA Entrada: Otro submodelo o sección: OaaProA, ACAMan, OInACAA, OPalFaA, OGliFaA Constantes y parámetros: PMaa, ForATPoACA, ForATPoaa 135 ANEXO II Cuadro II.1. Fuentes de los datos experimentales utilizados en la validación del modelo Wakax POS en predicción de la GPP por día. Indentificador Bibliografía V09-V12 M Ferreira and T R Preston (1976) Effect of different concentrations of urea in final molasses given as a supplement to chopped sugarcane for fattening cattle. Trop Anim Prod. 1(2)66-71. V16-V31 R Silvestre, NA MacLeod and TR Preston (1976) Supplementation of sugar cane/urea for growing cattle: levels of maize grain and a protein concentrate. Trop Anim Prod. 1:206-214. V32 FJ Alvarez, A Priego and TR Preston (1977) Comportamiento animal en caña de azúcar ensilada. Prod Anim Trop. 2:27-33. V33 y V35 HM Ferreiro, TR Preston and TM Sutherland (1977) Limitaciones dietéticas de raciones basadas en caña de azúcar. Prod Anim Trop. 2:58-63. V36-V41 R Silvestre, NA MacLeod and TR Preston (1977) Suplementación de caña de azúcar con urea para engorde de ganado: efecto del maíz y diferentes niveles y fuentes de proteínas. Prod Anim Trop. 2:84-92. V42 R Silvestre, NA MacLeod and TR Preston (1977) Effect of meal, dried cassava root and groundnut oil in diets based on sugar cane/urea, or molasses/urea. Trop Anim Prod. 2:151-157. V48 y V49 HM Ferreiro, TM Sutherland, A Wilson and TR Preston (1977) Engorde de ganado con caña de azúcar: comparación de diferentes suplementos. Prod Anim Trop. 2:319-324. V50 R Silvestre and FD DeB Hovell (1978) Growth of fattening cattle given chopped sugar cane supplement with different levels of wheat bran. Trop Anim Prod. 3:148-151. V51 A Fernandez, JB Rowe ant TR Preston (1980) Effect of a methane inhibitor on growth performance and rumen VFA of steers fed sugar cane and molasses. Trop Anim Prod. 5:172-176. 136 Cuadro II.2. Datos de los animales, cantidades de los alimentos suministrados y la GPP por día observada y modelada con el modelo Wakax POS. Indentificador V09 V10 V11 V12 V16 V17 V18 V19 V20 V21 V22 V23 V24 V25 V26 V27 V28 V29 V30 V31 V32 V33 V35 V36 V37 V38 V39 V40 V41 Peso (kg) 281.5 280 244 246.5 179 199 214.5 207 228.5 248 229.5 226 208 221.5 238 225 228 248 229.5 226 305 221.1 208.5 163.5 222.5 169.5 212 188 197 Raza Cebú (toro) Cebú (toro) Cebú (toro) Cebú (toro) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (toro) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) Cebú (novillo) CZI (kg) 3.3823 4.2588 4.6297 4.9254 3.682 3.948 3.944 3.8 3.826 3.822 3.788 3.644 3.4617 3.3664 2.739 3.3966 2.7007 2.8341 3.2923 3.3783 3.84798 2.18 4.17 3.083 3.4636 3.467 4.154 3.342 4.212 Tipo CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP CZP Suplemento Melaza con 4% urea Melaza con 6% urea Melaza con 8% urea Melaza con 10% urea Maíz+urea Maíz+urea Maíz+urea Maíz+urea Maíz+urea Maíz+urea Maíz+urea Maíz+urea Maíz+ Melaza+urea Maíz+ Melaza+urea Maíz+ Melaza+urea Maíz+ Melaza+urea Maíz+ Melaza+urea Maíz+ Melaza+urea Maíz+ Melaza+urea Maíz+ Melaza+urea Miel final Urea Urea Urea+amonio Maíz+urea Urea+amonio Maíz +urea+amonio Urea+amonio Maíz+urea+amonio 137 Maíz 0 0 0 0 0.348 0.522 0.696 0.87 1.044 1.218 1.392 1.566 0.348 0.522 0.696 0.87 1.044 1.218 1.392 1.566 0 0 0 0 0.87 0 0.87 0 0.87 Melaza 2.6967 1.7622 1.4863 1.3706 0 0 0 0 0 0 0 0 1.1303 1.2816 1.335 0.9434 1.5753 0.9879 1.1357 1.0057 0.46102 0 0 0 0 0 0 0 0 Observado 0.366 0.398 0.493 0.63 0.43 0.4 0.49 0.6 0 0.43 0.7 0.69 0.5 0.68 0.62 0.52 0.64 0.45 0.43 0.76 0.036 0.019 0.412 0.052 0.414 0.05 0.292 0.054 0.308 Modelado 0 0 0.39 0.43 0.13 0.28 0.23 0.29 0.28 0.09 0.32 0.33 0.02 0 0 0.26 0 0 0.33 0.39 0 0 0 0 0 0 0.35 0 0.39 V42 243 Cebú (novillo) 3.502 V48 214 Cebú (toro) 3.1009 V49 276.5 Cebú (toro) 3.149 V50 227.5 Cebú (toro) 3.39 V51 225 Cebú (toro) 1.5394 CZI=Caña de azúcar sin raíz, CZP=Caña de azúcar picada CZP CZP CZP CZP CZP Urea+amonio Miel+urea Maíz+urea Melaza+urea 138 0 0 0.435 0 0 0 1.0591 0 0 3.1836 0.054 0.037 0.051 0.062 0.364 0 0 0 0 0 Cuadro II.3. Fuentes e información de los datos experimentales utilizados en la validación del modelo Wakax POS en predicción en el Rumen y Ciego de DM(%), AGVs(mM), Ac(%), Pr(%) y Bu(%). Indentificador V32 V42 V43-V45 V44 V45 V46 y V47 V47 V51 Bibliografía FJ Alvarez, A Priego and TR Preston (1977) Comportamiento animal en caña de azúcar ensilada. Prod Anim Trop. 2:27-33. R Silvestre, NA MacLeod and TR Preston (1977) Effect of meal, dried cassava root and groundnut oil in diets based on sugar cane/urea, or molasses/urea. Trop Anim Prod. 2:151-157. S Minor, NA MacLeod, TR Preston and RA Leng (1977) Studies on digestion in different sections of the intestinal tract of bulls fed sugar cane/urea with different supplements. Trop Anim Prod. 2(2):163174. A Priego, A Wilson and TM Sutherland (1977) Efecto de la caña de azúcar picada y suplementada con pulidura de arroz o harina de yuca sobre los parámetros de fermentación ruminal y tasa de líquido ruminal en toros cebu. Prod Anim Trop. 2:301-308. A Fernandez, JB Rowe ant TR Preston (1980) Effect of a methane inhibitor on growth performance and rumen VFA of steers fed sugar cane and molasses. Trop Anim Pro. 5:172-176. CZI=Caña de azúcar sin raíz, CZP=Caña de azúcar picada Peso (kg) 305 Raza Cebú (toro) CZI (kg) 3.84798 Tipo CZP Suplemento Miel final 243 Cebú (novillo) 3.502 CZP Urea+amonio 325 Cebú (toro) 3.315 CZP Urea 396 346 300 Cebú (toro) Cebú (toro) Cebú (toro) 5.4264 5.699 4.74 CZP CZP CZP Maíz+urea Maíz+urea Urea 300 225 Cebú (toro) Cebú (toro) 4.59 1.5394 CZP CZP Urea Melaza+urea 139