2014 Sesión de carteles XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Análisis de Confiabilidad XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Prueba de Vida Acelerada para Determinar la Estabilidad Operacional de un Controlador PID de Temperatura Ponente: Arturo David García Higareda1 Co-autor: Gilberto Alejandro Herrejón Pintor2 1 CIMAT, 2Tecnológico de Zamora, Departamento de Ingeniería Electrónica Resumen El presente trabajo muestra la conducción de la prueba de vida acelerada con el modelo de riesgo proporcional aplicada a un dispositivo de control PID (proporcional, integral y diferencial) construido y desarrollado como parte de la cátedra de las asignaturas de ingeniería industrial a nivel experimental, con la finalidad de evaluar el nivel de desempeño del prototipo en actividades de control. El control de los procesos y las operaciones es una de las aplicaciones más importante en el sector industrial. Esto suele referirse a un sistema automático por retroalimentación con una aplicación de tal importancia que la mayor parte de los estudiantes a nivel licenciatura incluye en su retícula algún curso o tópico relacionado con el tema. Un requerimiento importante para un sistema de control es que debe ser estable. Esto significa que si se aplica una entrada de magnitud finita, entonces la salida debería también ser finita y de ningún modo infinita, es decir incrementarse dentro de un límite. Por tal motivo, un dispositivo de control presenta fallas o no es confiable cuando su estabilidad no se cumple y los límites o set points que se especifican no se mantienen en el intervalo deseado por el usuario. El modelo de prueba de vida acelerada desarrollado con el fin de estimar los efectos de las covariables que influyen en los tiempos hasta el fallo de un sistema es el de riesgos proporcionales o proportional hazards model (PH). El modelo ha sido ampliamente utilizado en el campo de la biomedicina y recientemente, ha habido un creciente interés en su aplicación en la ingeniería de confiabilidad. En su forma original, el modelo es no paramétrico, es decir, no se hacen suposiciones acerca de la naturaleza o la forma de la distribución de fallos subyacentes. En ese sentido, la formulación original es no-paramétrica, sin embargo como una forma paramétrica del modelo se considera la utilización de una distribución de Weibull a la vida del producto y se procedió con el análisis de los datos con dos variables: temperatura y voltaje. El controlador PID analógico propuesto permite a los estudiantes observar de manera independiente la señal producida por cada una de las etapas del controlador, lo que complementa las explicaciones teóricas. La etapa de potencia se asemeja a las implementadas en controladores comerciales, lo cual es una aportación adicional del sistema. El proceso de caracterización del sistema permite comparar el modelo del sistema con los resultados experimentales. El sistema diseñado cumple el objetivo de acercar al estudiante a todas las etapas del desarrollo de un sistema de control: definición del problema, modelado, sintonización, implementación y comprobación experimental. El modelo de vida acelerada de riesgos proporcionales permitió modelar el mecanismo de control y cuantificar cómo se ve afectado por la temperatura y el voltaje de esta forma se puede continuar con la fase de pruebas piloto. La predicción de fallas permitió caracterizar el mecanismo de control en términos de la confiabilidad exhibida a la luz de la fase de prototipo del proyecto. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Análisis de Datos XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Análisis Correlacional y Uso de la Distribución t de Student, en el Análisis de Resolución de Problemas de Matemáticas Básicas en el Área de Administración y Contabilidad, para el Mejor Aprovechamiento Escolar. Ponente: Francisca García Chablé1 Coautores: María Concepción Zarracino Mendoza1 y Norma Edith Alamilla López2 1 Instituto Tecnológico Superior de Macuspana, Tabasco. 2Universidad Politécnica del Centro. Resumen A nivel nacional e internacional se ha medido el aprovechamiento escolar en el sistema educativo y los resultados emitidos por las instituciones evaluadoras coinciden con los resultados emitidos por el Instituto Nacional de Estadística y Geografía (INEGI) en que la materia de mayor reprobación es matemáticas. Ante las situación descrita se realizó este trabajo de investigación con el objetivo de determinar que la resolución de problemas enfocados a la administración y contabilidad tienen influencia en el aprovechamiento escolar en los alumnos que aprenden aritmética, con la hipótesis “ los alumnos de primer semestre de la carrera de administración que estudian aritmética, enfocada a la resolución de problemas administrativos y contables, obtienen un mayor aprovechamiento escolar comparados con los que no lo estudian con ese enfoque". Se realizó un análisis correlacional y la prueba t de Student para probar la hipótesis planteada. Los resultados obtenidos demostraron que la resolución de problemas enfocados a la administración y contabilidad influye incrementando el aprovechamiento escolar. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Análisis de Supervivencia y Puntos de Cambio Ponente: Guadalupe Yoanna Arenas Martínez1 Co-autores: Franciasco Solano Tajonar1 y Hortensia Reyes Cervantes1 1 BUAP, Facultad de Ciencias Físico Matemáticas Resumen En este trabajo se da una aplicación de los puntos de cambio en el área del análisis de supervivencia, el objetivo se centra en estimar los puntos de cambio que tiene la función de riesgo, dichos puntos son obtenidos mediante el algoritmo Simplex de Nelder-Mead y una prueba de tipo Wald. El presente trabajo esta ubicado en la línea del análisis de supervivencia, la cual hace uso de modelos paramétricos para el estudio de fenómenos relacionados con tiempos de vida o tiempos de falla, algunos son el modelos que se usan en este tipo de análisis son el Exponencial, Weibull, Log-normal, Gamma, etc. En este caso se supondrá que la función de riesgo que se analiza, se ajusta a una distribución Exponencial por tramos. En los últimos años el análisis de supervivencia ha desarrollado tópicos importantes en muchas áreas, especialmente en biología, medicina, ingeniería, epidemiología, etc., con aplicaciones que van desde estudiar el desarrollo de alguna enfermedad, tiempos de vida en individuos con enfermedades terminales, falla en maquinaria, durabilidad de electrodomésticos, hasta estudiar la resistencia de materiales al calor, etc. son solo algunas de las aplicaciones en donde el papel del análisis de supervivencia y de confiabilidad es importante. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Curvas ROC Y Regresión Logística Conjuntas en el Análisis de Saturación Venosa Central como Predictor de Severidad para Pancreatitis Aguda Ponente: Karla Gabriela Ortega Sánchez1 Co-autores: Araceli Pineda Moreno1 y Sergio Morales Polanco2 1 Universidad Veracruzana, Facultad de Estadística e Informática, 2 Hospital Adolfo López Mateos del ISSSTE, Gastroenterología Resumen Con el fin de dar respuesta a la hipótesis central, que consiste en saber si la saturación venosa central actúa como predictor de severidad en pacientes que fueron diagnosticados con pancreatitis; como analista de los datos obtenidos por el medico encargado se utilizó regresión logística para la estimación de relaciones entre variables que determinan si el paciente presenta pancreatitis severa o leve. La utilización de curvas ROC (Característica Operativa del Receptor) complementa el análisis y nos proporciona de manera gráfica la evaluación del rendimiento de los clasificadores, además del desarrollo de un diagnóstico que permite discriminar entre dos grupos y obtener un punto de corte o criterio que clasifica a los individuos de interés; así como, evaluar dicha clasificación. Además de indicarnos la probabilidad de obtener falsos negativos o falsos positivos; es decir, dar un diagnóstico equivocado al correspondiente. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Distribución Normal y Gamma Aplicadas al Análisis de Datos de la Comprensión Lectora Ponente: Elsa Edith Rivera Rosales1 Coautor: José Jesús Israel Ruiz Benitez1 1 Universidad Autónoma De Coahuila, Facultad de Ciencias Físico Matemáticas Resumen El presente trabajo aborda un tema actual del currículo universitario pues la probabilidad está inmersa en la mayoría de los cursos de nivel superior, ya que es tan común hablar de probabilidad como saber si hoy llegaré temprano o no a la escuela. El trabajo se realiza ante la necesidad de explorar el aprendizaje que los alumnos del curso de Estadística 1 de la Licenciatura en Matemáticas Aplicadas de la Universidad Autónoma de Coahuila presentan ante el uso de diversas distribuciones, primordialmente la normal; se pretende aplicar las distribuciones a un contexto real considerando que el estudio de las distribuciones continuas tienen múltiples aplicaciones en campos como la industria, medicina, física, procesos de producción, entre otros. El trabajo surge por buscar ir más allá de la distribución normal, apoyándose además en la distribución gamma, por lo que se hace uso de técnicas de cálculo avanzado para hacer la conexión entre las distribuciones, para lo cual es indispensable tener un buen dominio de los métodos estadísticos y cálculos avanzados para lograr hacer este puente entre distribuciones y lograr aplicarlas al análisis de datos de la comprensión lectora. Sin duda la probabilidad es un tema que no puede escapar, pues con las distribuciones de probabilidad se hace un estudio más arduo de la probabilidad; para poder llegar a dichas distribuciones es importante conocer a fondo el cálculo de probabilidades pues es la materia prima de todas las distribuciones sin importar que sean discretas o continuas. Históricamente la probabilidad ha estado presente en muchos fenómenos que no tienen un patrón determinístico sino aleatorio es así que la matemática y en particular la probabilidad juegan un papel trascendental. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Evaluación de la calidad de tres puntos de explotación de agregados pétreos para la fabricación de concretos hidráulicos Ponente: Alfredo Cuevas Sandoval1,a Co-autores: Flaviano Godinez Jaimes1,b y Raziel Barragan Trinidad1,a 1 a Universidad Autónoma De Guerrero Materiales de Construcción, UAI, bMatemáticas Resumen El concreto hidráulico es el material de construcción más utilizado en el mundo por su versatilidad, durabilidad y economía. Se compone básicamente de pasta (agua y cemento) y agregados (arena y grava), estos últimos por tener propiedades físicas y mecánicas condicionadas por la fuente de procedencia le imprimen al concreto características particulares específicamente en la resistencia a compresión; la cual es la medida más común para evaluar su calidad. Se determinó la calidad de tres bancos de agregados y su efecto en la resistencia a compresión del concreto controlando otros factores en laboratorio. Los resultados preliminares han permitido llevar a cabo recomendaciones más efectivas a los usuarios, mejorando la calidad de las obras construidas, y una reducción importante en los costos. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Indicador de Prioridad BID-UV de Problemáticas Sociales que Impactan la Calidad de Vida Ciudadana: Una Comparación entre Ciudades Ponente: Consuelo Amador Valencia1 Co-autor: Claudio Rafael Castro López1 1 Universidad Veracruzana, Centro de Estudios de Opinión Y Análisis Resumen El rápido proceso de urbanización en muchas ciudades de América Latina y el Caribe (ALC) durante las últimas décadas ha traído numerosos retos para el desarrollo de la región: a) crecimiento desordenado y patrones de uso de suelo inadecuados; b) proporción creciente de la población viviendo en condiciones de pobreza; c) limitación de recursos y capacidades institucionales; y d) crecientes problemas ambientales y sociales, y aumento de la vulnerabilidad de la población. Los desafíos de la urbanización acelerada adquieren mayor relevancia en ciudades de tamaño intermedio, donde la población urbana tiende a asentarse cada vez más. El tratamiento de estos retos exigió el lanzamiento de una nueva iniciativa del Banco Interamericano de Desarrollo (BID), la Iniciativa Ciudades Emergentes y Sostenibles (ICES), orientada a contribuir al logro de la sostenibilidad urbana, ambiental y fiscal de ciudades con una población intermedia en rápido crecimiento. La metodología CES de la iniciativa, procura un desarrollo integral de las ciudades, donde se ofrezca un alto nivel de calidad de vida de los habitantes, se generen menores impactos ambientales, y se tenga la capacidad fiscal y administrativa para hacer frente a las responsabilidades de la gestión urbana. Por todo esto, se realizó un estudio de opinión a los habitantes de la Zona Metropolitana Xalapa y el Municipio de Campeche por parte del Centro de Estudios de Opinión y Análisis de la Universidad Veracruzana, para conocer la jerarquización y comparación relativa entre las distintas problemáticas que se evalúan en la metodología CES. En este trabajo Se presenta un indicador agregado de priorización ciudadana, construido a partir de percepciones ciudadanas, utilizando métodos multivariantes de clases latentes y segmentación, para evidenciar su robustez. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Análisis Multivariado XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Análisis de Consumo de Drogas entre Universitarios: Comparativo Regional Ponente: Paola Estefany Fernández Cruz1 Co-autor: Claudio Rafael Castro López1 1 Universidad Veracruzana, Centro de estudios de opinión y análisis Resumen Entre los jóvenes, el consumo de drogas (legales e ilegales) no solo se ha ido incrementando, sino que, el primer contacto que se tiene con estas es a una edad cada vez más temprana, este inicio prematuro incrementa la posibilidad de crear una futura adicción hacia este tipo de sustancias, ocasionando, además de problemas de salud para quien las consume, problemas sociales, daños a terceros y problemas económicos. Son muchos los factores que influyen en la predilección de una droga, uno de estos, es la ubicación geográfica en la que se habita, ya que la cultura, creencias e incluso, la altitud a la que se está, influyen en el tipo y cantidad de droga que se consume. En el contexto de la Encuesta PERCIBETE en la Universidad Veracruzana, se presentan análisis estadísticos que permiten obtener comportamientos regionales de consumo y perfiles de estudiantes en los consumos de drogas legales e ilegales. Se utilizan diversas técnicas multivariantes con lo que se ha podido retratar las similitudes en cuanto a los hábitos de consumo entre los estudiantes universitarios. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Análisis Exploratorio Multivariante para Identificar el uso de las Metas de Aprendizaje de la Estadística en Estudiantes de la Universidad Veracruzana Ponente: Cecilia Morales Flores1 Co-autores: Cecilia Cruz López1 y Mario Miguel Ojeda Ramírez1 1 Universidad Veracruzana, Facultad de Estadística e Informática Resumen En el presente estudio se reporta un estudio exploratorio sobre las Metas de Aprendizaje de la Estadística en estudiantes que han llevado al menos un curso introductorio de estadística en la Universidad Veracruzana. A partir de un cuestionario aplicado a 258 estudiantes en las cinco regiones de la institución, se generó una base de datos y a partir de ella se llevaron a cabo análisis descriptivos y de asociación multivariante, entre ellos correspondencia múltiple y correlación canónica, el tipo de datos que se tienen son categóricos, esto se realizó con el propósito de identificar si existe alguna relación entre el uso de las Metas de Aprendizaje de la Estadística y la carrera que estudian. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Caracterización Estadística de lo que los Adolescentes Quieren Conocer sobre Educación y Salud Sexual Ponente: Linette Giovanna Zapata Morales1 Co-autor: María Luisa Hernández Maldonado1 1 Universidad Veracruzana, CyTES Resumen El objetivo en este trabajo es presentar lo que los estudiantes de nivel medio superior del estado de Veracruz quieren conocer sobre educación y salud sexual. Para el análisis se utiliza una base de datos de tipo textual que contiene 4,064 preguntas recolectadas del 2012 al 2014, relacionadas con los temas: relaciones sexuales, embarazos no planeados, métodos anticonceptivos, infecciones de transmisión sexual y medidas de autocuidado. Estos se encuentran dentro del programa “Educación y Salud Sexual” implementado por el Consejo Estatal de Población de la SEGOB, orientando a los adolescentes a través de charlas informativas, enfocándose al interés que manifiestan ellos en forma de preguntas. Se realiza un análisis estadístico de textos: palabras característica, respuestas modales y análisis de correspondencia múltiple. Se observan diferencias en el interés de los adolescentes sobre los diferentes temas. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles El Análisis de Correlación Canónica Dispersa (SCCA): Aplicación en Procesos de Recubrimiento Automotriz. Ponente: Mercedes Patricia Flores Ibarra1 Co-autor: Mario Cantú Sifuentes2 1 PICYT, COMIMSA, 2COMIMSA, Gerencia de Desarrollo Humano Resumen En el presente trabajo de investigación se emplea el análisis de correlación canónica dispersa (SCCA, por sus siglas en inglés) para establecer una relación entre variables y parámetros en un proceso de recubrimiento automotriz. Con esto, se estima el efecto que tiene una función de los parámetros, con las variables de salida del proceso. Además, se establece la región en la que debe tomar valores esta función para garantizar, estadísticamente, que la variable de calidad del proceso tome valores en los límites especificados. El caso de estudio se desarrolla en un proceso típico de recubrimiento automotriz, que consiste en una secuencia de etapas, cada una asociada a un conjunto de parámetros de proceso, mediante los cuales es posible controlar los valores de las variables de salida. Las variables de salida de cada etapa, son las variables de entrada de la siguiente. El principal interés es lograr el control del valor de la apariencia final del producto (característica de calidad de recubrimientos). Con esto se pretende que un índice de apariencia tome valores dentro de límites especificados por el cliente. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Generación de Muestras Aleatorias con Censura Aleatoria Ponente: Pedro Enrique Monjardin1 Coautor: Raúl Enrique Villa Diharce2 1 Universidad Autónoma de Sinaloa, FCFM, 2CIMAT, Área de Probabilidad y Estadística Resumen En confiabilidad y análisis de supervivencia los datos que se analizan son tiempos a la falla. Un rasgo importante en éstos es la censura, que se presenta cuando no se observa el tiempo de falla y solo se conoce que éste ocurrió en un intervalo de tiempo o después de algún tiempo determinado. Cuando se consideran varios modos de falla en un individuo, los datos son multivariados con un cierto patrón de dependencia entre ellos. Para estudiar las propiedades de los estimadores o de algunas características de interés, es necesario generar tiempos de vida, univariados o multivariados con algún patrón de censura. En este trabajo proponemos un procedimiento para generar datos con censura aleatoria. La principal ventaja de esta propuesta es que no es necesario modificar la distribución de censura cuando se desea cambiar el nivel de censura en los datos o las distribuciones marginales. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Proceso Metodológico y Aplicación del Análisis Factorial Múltiple para Tablas de Contingencia Ponente: Herminia Domínguez Palmeros1 Co-autor: María Luisa Hernández Maldonado1 1 Universidad Veracruzana, Facultad de Estadística e Informática Resumen Este trabajo surge al considerar la carencia de procedimientos computarizados para aplicar el método Análisis Factorial Múltiple para Tablas de Contingencia (AFMTC), presentado por Bècue y Pagés (1999, 2004). Su valiosa aportación consiste en la representación simultanea de varias estructuras parciales y una estructura global en un mismo mapa perceptual, centradas todas en el origen, para facilitar su comparación. El objetivo consiste en codificar en lenguaje R dos algoritmos, uno para la transformación de datos que permita la aplicación de AFMTC a través del Análisis de Componentes Principales (ACP) no normado y otro procedimiento que transforme las coordenadas resultantes del ACP para graficarlas en un mapa perceptual. Se presenta un ejemplo que permite mostrar el procedimiento y los resultados de su aplicación. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Un estudio Comparativo de Cartas de Control para el Monitoreo Estadístico de Datos Autocorrelacionados José Rodolfo Olmos Zepeda1 Co-autores: Mario Cantú Sifuentes1 y Julia Aurora Montano Rivas2 1 UAAAN, Departamento de Estadística, 2UV, Facultad de Estadística e Informática Resumen En este trabajo se presenta una comparación del desempeño de dos cartas de monitoreo para procesos multivariados serialmente correlacionados. Una, no paramétrica, basada en el concepto de profundidad de datos, la otra es una generalización, para datos autocorrelacionados, de la carta de control T 2 de Hotelling. La comparacion se hace en términos de la Longitud Media de Corrida (ARL). Finalmente se realiza un estudio de caso. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Diseño de Experimentos XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Diseño y Análisis de un Experimento de Transmisión de Microondas a Través de un Material Granulado para Caracterizar su Contenido de Humedad. Ponente: José Alejandro Rosendo Robles1 Co-autores: Alberto Arturo Herrera Becerra2, y Oliver Cortés Pérez2 1 ZAMETXIC, Análisis y Modelación, 2UNAM, CCADET Resumen La acuametría en una de sus definiciones es la medición del contenido de humedad en material sólido y líquido, específicamente nuestra motivación va en el sentido de medir por medio de microondas la cantidad de humedad en material granulado. En la industria hay procedimientos no destructivos para la medición de agua en material granular, para aquellos con base en microondas el principio básico consiste en que las microondas penetran en el material granulado humedecido, provocando la rotación de las moléculas de agua libre. Como resultado la velocidad de las microondas se ralentiza (desplazamiento de fase) y su intensidad se debilita (atenuación). Estos efectos se miden como una indicación del contenido de humedad. La propuesta de este trabajo va en el sentido de desarrollar un experimento que tome la atenuación como variable dependiente de la humedad. En las mediciones para la humedad se calibró el analizador de redes y en todos los casos se restó la línea base que se trata de la medición de la atenuación producida por el contenedor de acrílico vació pero lleno de aire ambiente, para que de esta manera se midiera solo la atenuación producida por la mezcla correspondiente de agua y galena. Se planteó un diseño experimental con tres factores, la humedad con siete niveles, la frecuencia con 501 niveles de los cuales de manera aleatoria se tomaron algunas y 4 rotaciones que al ser realizadas sobre la misma muestra de galena humedecida se puede considerar como un experimento de dos factores con mediciones repetidas y sin replicación ya que las mediciones repetidas, es decir las rotaciones se realizaron solo sobre una mezcla de galena humedecida a un cierto nivel, así se llega a un modelo de efectos mixto de una sola muestra de mediciones repetidas. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Investigación de la plaga del gusano cogollero en el cultivo de maíz mediante la implementación de una encuesta y un diseño de parcelas divididas Ponente: Ruth Rodríguez Ramírez Co-autor: Julia Aurora Montano Rivas Resumen El maíz (Zea mays) es un grano dorado nativo de América, pertenece a la familia de gramíneas, su planta es robusta, de fácil desarrollo y de producción anual. Numerosas investigaciones se han desarrollado sobre el maíz, económicamente hablando los tipos de maíz más cultivados para grano, forraje y ensilaje son tres: el dentado, duro y harinoso. Asimismo, se han considerado tipos de maíz menos relevantes en comparación con los anteriores, pero con importante valor agregado, estos son: maíz reventón, dulce y ceroso. En este trabajo se propone un diseño experimental para encontrar la combinación de fertilizante e insecticida con el que se obtiene una mayor producción de maíz. El presente trabajo se llevó a cabo en la localidad de Los Ángeles, Matías Romero A., Oaxaca, de agosto del año 2013 a Junio del 2014. Se dividió en dos etapas, la primera consistió en el diseño y aplicación del cuestionario para captar las opiniones sobre la producción del maíz; dicha encuesta consta de 37 preguntas que se dividieron en cuatro secciones, las cuales fueron: información general del agricultor encuestado, información sobre fertilizantes, insecticidas y asesoramiento para sembrar. Como segunda etapa se realizó un experimento en parcelas divididas en bloques, en terreno perteneciente a la localidad y ubicado cerca del rio Jaltepec. El experimento a desarrollar obedece algunas interrogantes derivadas de la aplicación de la encuesta. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Sequential Bayesian Analysis of Definitive Screening Experiments Víctor Aguirre Torres1 y Román de la Vara Salazar 1 ITAM, Estadística Abstract Sequential Bayesian Analysis of Definitive Screening Experiments Definitive Screening Experiments, Jones and Nachtsheim (2011), are experimental plans with three levels that allow the estimation of main effects that are completely independent of two factor interactions, two factor interactions are not completely confounded with other two factor interactions, and quadratic effects are estimable. The number of experimental runs is just twice plus one the number of factors of interest. In the literature, forward stepwise regression, Hamada and Wu (1992), has been used to analyze this kind of experiments. In this work we show the sequential use of two tools coming from the Bayesian approach to analyze this kind of experiments, namely: posterior distribution of effects, and posterior probabilities that effects are active. We show that by combining all three approaches leads to a much better identification of active effects in the experiment. References Hamada, M., and C. Wu (1992) “Analyzing Designed Experiments with Complex Aliasing”. Journal of Quality Technology 24, pp. 30-37. Jones, B., and C. Nachtsheim (2011) “A Class of Three-Level Designs for Definitive Screening in the Presence of Second Order Effects”. Journal of Quality Technology 43, pp. 1-15. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Significancia de los Métodos ASME B31 Ponente: Génesis Peredo Rivera1 Coautores: Lady Yohanna Beltrán López1 y Edgar Ávila Hernández1 1 Centro de Innovación en Integridad de Infraestructura y Ductos, Corrosión Interior Resumen La integridad de ductos y determinación para su funcionalidad, se ha convertido en un tema muy importante para establecer criterios uniformes y tomar decisiones para el mantenimiento de las tuberías; dentro de la norma ASME B31, Apéndice G, se describen dos métodos para la determinación de la presión permisible del ducto, enfocado en la necesidad de generar criterios estándar para reparar o reemplazar tuberías que presentan defectos, este trabajo realiza una comparación de dos métodos para el cálculo de la presión permisible en función a la pérdida de espesor del ducto. En una de las “líneas aguas arriba”, situada en el sureste de México, bajo la técnica de MFL se hallaron tres defectos de desgaste de tubería, de los cuales uno de ellos ubicado a las 11:46 hrs. no cumplió con el “factor de folias” para el soporte de la concentración de las tensiones en los extremos de la falla recomendado por la ASME B31, se realizó el cálculo de las presiones permisibles para este ducto por medio de los métodos ASME B31-G y RSTRENG-1, soportando al cálculo se realizó un análisis de varianza (ANOVA) con un 95% de confiabilidad probando la hipótesis de diferencias entre los métodos bajo una distribución F-Fisher, para un ducto con características específicas, obteniendo un intervalo de confianza para la media de la presión permisible del ducto. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Estadística Bayesiana XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Aplicación de Modelos Bayesianos para el Análisis de Conteos de Linfocitos T CD4+ de Pacientes con VIH en México Ponente: Rodrigo Hernández Hernández1 Co-autor: Luis E. Nieto-Barajas1 1 ITAM, Estadística Resumen El conteo de linfocitos cT CD4+ es el indicador más importante de la progresión de la infección de VIH hacia el SIDA y un reflejo del estado inmunológico del paciente, por ello es de interés modelar el comportamiento de estas mediciones y poder hacer predicciones. El objetivo fue la aplicación de dos modelos de regresión bayesiana al conteo de CD4+ de pacientes con VIH para: 1. Determinar el nivel medio modelado de CD4+ de cada individuo durante un periodo determinado y 2. Proyectar a futuro su conteo de CD4+. Se incluyeron 4,578 pacientes del Laboratorio de Diagnóstico Virológico del CIENI con seguimiento de enero 2008 a diciembre 2011 sin embargo sólo se utilizaron datos de pacientes que tenían dos o más mediciones. Dado que el número de mediciones varía mucho entre pacientes, se utilizaron modelos jerárquicos para determinar el nivel medio modelado de CD4+ de cada individuo durante el periodo de estudio a partir de ciertas variables explicativas. Por otro lado, para las proyecciones se emplearon modelos con splines que ajustan curvas suavizadas a los CD4+ en función del tiempo. Para ambos modelos se realizaron 10,000 iteraciones con las cuales se alcanzó la convergencia en ambos modelos. Finalmente, con el modelo jerárquico ajustado a los datos se obtuvieron niveles medios de CD4+ modelados con la información completa de la cohorte y las variables explicativas, permitiendo una clasificación más confiable de los pacientes que mantienen niveles de CD4+ bajos, medios y altos. Con el modelo de splines se obtuvieron estimaciones de los CD4+ a lo largo del periodo de estudio e incluso hasta un año después. XXIX Foro Internacional de Estadística, Puebla, Puebla. Sesión de carteles 2014 Enseñanza y Divulgación de la Estadística XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Creación de un Índice de Uso de Metas de Aprendizaje de la Estadística en Profesores de la Universidad Veracruzana Ponente: Martha Yanet Domínguez Cortina1 Co-autores: Cecilia Cruz López1 y Mario Miguel Ojeda Ramírez1 1 Universidad Veracruzana, Facultad de Estadística e Informática Resumen En este trabajo se creó un índice de qué tanto utilizan las Metas de Aprendizaje de la Estadística los profesores de la Universidad Veracruzana en cursos de servicio. La recolección de la información se llevó a cabo a través de un cuestionario que contiene las ocho metas de aprendizaje con respuestas tipo Likert. Se realizó un análisis exploratorio multivariante y por medio de la Técnica de Componentes Principales fue creado el índice del uso de las Metas llamado IMA. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles El Enfoque por Competencias para Enseñanza de la Estadística Caso de las Carreras de Ingeniería Ponente: Estela Domínguez Hernández1 Coautores: José Luis Hernández González1 y Enrique Acoltzi Bautista1 1 Instituto Tecnológico de Apizaco, Ciencias Básicas Resumen Actualmente la enseñanza en los diferentes niveles de educación como son medio superior y superior han reorientado a un enfoque en competencias. En el caso del sistema nacional de institutos tecnológicos pertenecientes a la DGEST-SEP, se han desarrollado planes de estudios en competencias para los programas 2009-2010. Sobre este enfoque Vázquez y Caton argumentan que “una sociedad que cambia con rapidez precisa una formación que capacite personas para actuar en contextos diferentes del que rodeó a su aprendizaje y no le basta con individuos que almacenen conocimientos que podrían quedar obsoletos o que, simplemente, estén entrenados para realizar tareas mecánicas”, para ello se requiere reconstruir la conceptualización de la enseñanza de las ciencias básica, en particular la enseñanza de la estadística que se ha fortalecido con el desarrollo de prácticas de laboratorio que permitan desarrollar competencias. Sin embargo, el crecimiento tanto en matricula como de instituciones, no ha sido equilibrado con los requerimientos de equipo e infraestructura, para ello nos debemos replantear ¿Qué hacer para desarrollar competencias acordes a las necesidades actuales? Algunas competencias generales como son analizar y sintetizar información, argumentar lógicamente, establecer analogías entre situaciones distintas, dar ejemplos particulares de una situación general, abstraer lo general de varios ejemplos particulares, obtener información cualitativa de datos cuantitativos, expresar de maneras diferentes pero equivalentes el mismo problema, manejar con precisión el lenguaje matemático y competencias específicas como: traducir un problema real a un problema de enunciado matemático con datos e incógnitas, obtener un modelo matemático de un sistema real, discriminar datos relevantes para la solución de un problema, diseñar estudios experimentales útiles en la resolución de un problema, expresar gráficamente datos, seleccionar procedimientos y herramientas adecuados de cálculo, calcular soluciones aproximadas de un problema, utilizar herramientas computacionales para analizar datos, obtener soluciones y simular el comportamiento de un sistema requiere del uso de algunas “herramientas básicas” y relativamente “económicas” y cumplir con niveles de desempeño de las competencias que pueden ser genéricas, interpersonales y profesionales. El instituto tecnológico de Apizaco muestra algunas características de la enseñanza por competencias para ingenierías. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Estrategias Tecnológicas en el PAE de Estadística Para Contadores Rufina Georgina Hernández Contreras UPAEP, PE y DT Resumen En el presente trabajo, que se realizó en la Facultad de Contaduría Pública (FCP) de la Benemérita Universidad Autónoma de Puebla (BUAP), México, se analizó el proceso de aprendizaje-enseñanza de dos conceptos básicos en la materia de estadística, el Promedio o Media Aritmética y la Desviación Estándar. Se trató de innovar el proceso de aprendizaje-enseñanza, además de adecuar a las necesidades actuales, y los requerimientos cada vez mayores de conocimientos estadísticos en la carrera; así como el aprendizaje y adquisición de habilidades tecnológicas de los alumnos. Al apoyarse en las Tecnologías de Información y Comunicación (TICs), no se obtuvieron mejoras relevantes en el aprendizaje de los conceptos promedio y desviación estándar, pero si se obtuvieron mejoras en el interés y motivación de los alumnos, así como en la obtención de herramientas de apoyo a la aplicación de la estadística, y el apoyo del propio proceso de aprendizaje-enseñanza, de una materia cada vez más substancial para los contadores públicos. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles La Varianza de la Mediana Muestral para las Distribuciones Normal, Exponencial Negativa y Pareto Francisco Sánchez Villarreal UNAM, Matemáticas Resumen La mediana es una estadística de tendencia central, que junto con la media aritmética y la moda se calculan en el análisis estadístico. La mediana ocupa un lugar destacado en el análisis estadístico no paramétrico. Para estimar la mediana se ordenan los datos de menor a mayor y se toma la observación central, si el tamaño de la muestra es impar o el promedio de la dos centrales si es par. La estimación de la varianza de la mediana es un problema tratado en la literatura (Efron, Bradley, 1985). Una alternativa es apoyarse en el teorema: Si X1..,Xn son v.a.i.i.d con función de densidad f(x), y función de distribución F(x), monótona y con valor único para el percentil p, entonces, la distribución asintótica del estimador de dicho percentil es normal con valor esperado µp y varianza p(1-p) / nf(µp). Este resultado se ejemplifica por simulación de Monte Carlo para las distribuciones Normal, Exponencial negativa. y Pareto I. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Estadística no paramétrica XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Estimación no Paramétrica del Siniestro Ocurrido en Seguros Ponente: Martin Romero Martínez1 Co-autor: María del Carmen Romero Martínez1 1 Instituto Nacional De Salud Pública, Encuestas Resumen Un siniestro ocurrido en el mes t, X(t), representa el monto que una compañía de seguros debe pagar para cubrir las reclamaciones de los siniestros ocurridos en el mes t. Sea X(t,j) el pago en el mes t+j del siniestro ocurrido en el mes t; entonces, X(t) = X(t,0) + ...+ X(t,N). Así, X(t,N) es conocido hasta después de transcurridos N meses. El problema que se trata es estimar no paramétricamente a X(t) a partir de la información disponible hasta el mes t. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Estadística y Ciencias Sociales XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Análisis de la Esperanza de Vida en México Ponente: Javier Santibáñez Cortés1 Co-autores: Jorge Luis Peña Cortez1 y Francisco José Zamudio Sánchez1 1 Universidad Autónoma Chapingo, DEMyC Resumen Se presenta un estudio de la esperanza de vida en México a diferentes escalas territoriales, estados y municipios, y su asociación con la tasa de mortalidad infantil. Para el cálculo de ambos indicadores se usa la información presentada por el INEGI y las proyecciones de la población del CONAPO. El objetivo del trabajo es exhibir que para sociedades que han alcanzado un cierto nivel de desarrollo la relación entre la esperanza de vida y la tasa de mortalidad infantil ya no es tan clara ni significativa. Se plantea como hipótesis que después de superar un umbral de necesidades sanitarias básicas, el efecto del segundo indicador sobre el primero es más débil. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Aprendizaje Basado en Proyectos en el Verano de la Investigación Ponente: Maria De Jesus Barradas Guevara1 Coautor: Mario Miguel Ojeda1 1 Universidad Veracruzana, Facultad de Estadística e Informática Resumen El verano de la investigación científica tiene como objetivo fomentar entre los estudiantes el interés por la actividad científica, lo cual consiste en promover y facilitar a los estudiantes de diferentes áreas y lugares del país de México a realizar un proyecto de investigación durante siete semanas entre el 23 de junio al 22 de agosto, bajo la supervisión de la persona que los guie durante este tiempo. El objetivo de este trabajo es analizar las variables que más induce al estudiante a investigar y aprender por cuenta propia. De los estudiantes que tomaron el curso en los años 2012 y 2013 se analizaron, entre otras variables el nivel de satisfacción del curso, que tanto aprendieron en el curso, si se le hizo difícil estar en el curso durante el periodo, y que tan difícil fueron los proyectos. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Desarrollo y Delincuencia Ponente: Javier Santibáñez Cortés1 Coautores: Omar Mata Lemus1 y Francisco José Zamudio Sánchez1 1 Universidad Autónoma Chapingo, DEMyC Resumen Se presenta un análisis de las asociaciones entre nivel de desarrollo de la entidades, medido a través de los índices de desarrollo humano, marginación y rezago social; con el nivel de victimización y percepción de la seguridad pública, media a través de un conjunto de variables extraídas de la ENVIPE del INEGI. El trabajo se refiere a información del año 2012 por ser la más actual disponible. Se emplea el análisis de conglomerados para agrupar los estados del país y tener una comparación más robusta. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Factores más Relevantes que Influyen en la Felicidad Ponente: Santiago Córdoba Morales1 Coautor: Julia Aurora Montano Rivas1 1 Universidad Veracruzana, Facultad de Estadística e Informática Resumen Si decimos que la felicidad es el estado emocional que sólo se puede sentir en el presente, entonces ¿cómo podríamos medir la felicidad ya que nos podemos encontrar con personas que en ese momento no se sienten felices? Existen muchos estudios en los que miden la felicidad a través del bienestar, midiendo cuánto bienestar hay en un lugar en función de sus recursos utilizados. Adrian G. White (1979), creó un índice de satisfacción con la vida, donde el bienestar subjetivo se correlaciona fuertemente con la salud, la riqueza y el acceso a la educación básica. En base a lo anterior, nos damos a la tarea de investigar las características que más influyen para medir la felicidad en tres regiones del país: la región norte está conformada por los estados, de Sonora y Coahuila, la región centro está compuesta por Querétaro y el Distrito Federal y la región sur que la conforman los estados de Veracruz y Quintana Roo, a través de la técnica de análisis de correspondencia. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Modelo para Evaluar la Formación y Desempeño Docente de Egresados de Instituciones de Educación Normal Ponente: Sergio Martín Nava Muñoz1 Coautores: María Antonieta Zuloaga Garmendia1 y Luz Elba Zepeda Jiménez1 1 CIMAT, U Ags Resumen El seguimiento de egresados es un punto fundamental para la labor formativa de las Escuelas Normales, porque es posible establecer parámetros que sirvan de referencia para mejorar la formación de un profesional de la educación que en el campo laboral manifieste un desempeño eficiente y proyecte una opinión favorable sobre su quehacer ante las autoridades educativas inmediatas y ante la sociedad. Es por ello que se hace necesario realizar análisis de la inserción de los egresados en el mercado laboral para mejorar su oferta de enseñanza y formación. Esta investigación partió del supuesto de que la formación profesional docente impacta en la eficiencia del desempeño laboral de los egresados de escuelas normales del Estado de Aguascalientes. Del que se deriva la siguiente pregunta ¿Cómo son las relaciones entre los factores que intervienen en la formación profesional docente y los factores que determinan la eficiencia del desempeño laboral de egresados de la generación 2005-2009 de escuelas normales del Estado de Aguascalientes? El interés por esta generación de egresados es porque fue la primera que participó en el Examen General de Ingreso al Servicio. Este trabajo tiene como objetivo encontrar la relación entre la formación profesional de los egresados de la generación 2005-2009 de las escuelas normales del Estado de Aguascalientes y la eficiencia en su desempeño laboral, así mismo se busca proponer un modelo para encontrar las relaciones entre los factores que intervienen en la formación y desempeño docente. Los resultados se obtienen de una encuesta, de la cual se construyen una serie de indicadores que resumen la formación profesional y el desempeño de los egresados. Estos indicadores se utilizaron para construir un modelo que relaciona estas variables, que finalmente permite encontrar las relaciones existentes entre los constructos construidos. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Semaforización de la Calidad de la Atención en los Servicios de Urgencias en Hospitales de Segundo Nivel de la Ciudad de Durango Ponente: Edgar Felipe Lares Bayona1 Co-autores: Manuel Rocha Fuentes1, Santiago David Fierro Martínez2 e Iván González Lazalde2 1 UJED, IIC, Departamento de Cómputo y Estadística, 2ITDurango, Ingeniería Industrial Resumen El servicio de salud es un servicio intangible, ya que es el resultado de un esfuerzo ó de una acción, donde las relaciones interpersonales, las técnicas e instrumentos médicos y la infraestructura adecuada son los principales enfoques en programas de mejora continua para la atención médica. Objetivo. Identificar la semaforización de la calidad de la atención en los servicios de urgencias en hospitales de segundo nivel de la ciudad de Durango. En este estudio descriptivo, transversal, y comparativo, se entrevistó a 325 pacientes que hicieron uso del servicio de urgencias en los hospitales de segundo nivel, como son: el Instituto de Seguridad y Servicios Sociales de los Trabajadores del Estado (ISSSTE), Hospital General de Durango (HG) y el Instituto Mexicano del Seguro Social (IMSS), hospitales de segundo nivel ubicados en la ciudad de Durango. Se encontró que la actividad desarrollada de los médicos en los servicios de urgencias frente a los pacientes muestra un nivel aceptable de comunicación. Los indicadores que conforman el rubro de satisfacción, están por debajo del estándar establecido. La semaforización en tres colores (rojo, amarillo y verde) representa el compromiso de una acción y la continuidad de un seguimiento en la monitoria de los servicios de urgencias en los hospitales de segundo nivel de la ciudad de Durango con los estándares establecidos por la Cruzada Nacional de la Calidad de los Servicios de Salud. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Una Aplicación de la Estadística Textual en una Pregunta Abierta de una Encuesta de Opinión en el Estado de Veracruz Relacionada con la Violencia Contra las Mujeres Ponente: Marisol Sánchez Cano1 Coautores: Alma Janett Tenorio Aguirre1 y Marisol Sánchez Cano1 1 Universidad Veracruzana, Centro de Estudios de Opinión y Análisis Resumen Más que un conteo de palabras, la estadística textual ha permitido que la información que recogen las preguntas abiertas en encuestas de opinión tenga un tratamiento sistemático, e.g. permite relacionar las características generales de los encuestados. El tema relacionado con la violencia de las mujeres es un tema en el que la recopilación de información es difícil. Algunos expertos señalan que la violencia puede ser asociada a los estigmas, el miedo, etc. Por esta razón, derivado de una encuesta de opinión en el estado de Veracruz, se obtuvo información referente a la opinión sobre violencia contra las mujeres donde los encuestados expresaban su opinión al respecto. Esta información se captó mediante una pregunta abierta, en el que las respuestas se convierten en datos expresados en cadenas de palabra. Se realizó un análisis de texto utilizando un software estadístico y métodos de la estadística textual; considerando la posibilidad de crear grupos de clasificación de las respuestas, así como identificar un perfil de los informantes considerando las variables sexo y edad. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Variables que Influyen para que un Alumno Egrese en dos Licenciaturas de la BUAP Ana Luisa Nieto Méndez1 Flaviano Godinez Jaimes2 y Hortensia Reyes Cervantes1 1 BUAP, FCFM, 2UAGro, Matemáticas Resumen Las licenciaturas en Matemática y Matemáticas Aplicadas que se ofrecen en la Facultad de Ciencias Físico Matemáticas de la BUAP tienen cursos en los primeros años en los que frecuentemente sus estudiantes reprueban. Actualmente es importante determinar los factores que influyen para que un alumno egrese. En este trabajo se consideran 14 variables asociadas a las calificaciones de los primeros cursos que un alumno toma, además de sus promedios en cada año que permanece en alguna de las licenciaturas. Para identificar que variables influyen para que un alumno egrese se usó una Regresión Logística considerando como variable respuesta a la variable Egreso (= 1/0) si un alumno ha o no egresado, respectivamente de las licenciaturas en Matemática o Matemáticas Aplicadas y se realizó selección de variables para identificar dichas variables. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Estadística y Medio Ambiente XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Análisis Multivariante para el Estudio de Materia Orgánica dentro de Bromelias Ponente: Yonatan Aguilar Cruz1 Co-autores: Cecilia Cruz López1 y José García Franco2 1 UV, FEI, 2Instituto de Ecología A.C., Ecología Funcional Resumen En trabajos de ecología comúnmente se reporta más de una variable respuesta para unidades experimentales asignadas a distintos tratamientos. Una herramienta útil para evaluar la respuesta simultánea del conjunto de variables es el Análisis de Varianza Multivariado (MANOVA). Para conocer el efecto de la especie de árbol hospedero en los componentes de la materia orgánica almacenada en bromelias, se seleccionaron nueve árboles (tres por especie) y se colectó la materia orgánica de tres bromelias sujetas a cada árbol. Se realizó un MANOVA con cuatro variables respuesta (proporción de hojas, ramas, epifitas y detritos) y tres factores (especies de árboles). Para determinar diferencias entre grupos se realizaron pruebas de contraste, y para detectar diferencias en cada una de las variables se utilizaron análisis de varianza univariados. Se concluyó que existe una diferencia significativa de la proporción de hojas, ramas, epifitas y detritos almacenados en las bromelias cuando éstas se encuentran en diferentes especies de árboles. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Estimación del Volumen Promedio de Agua Utilizada en la Evacuación de Residuos Líquidos en Sanitarios Ponente: Marcos Andrés Jiménez Moreno1 Coautores: Norma Edith Alamilla López2,a, Reyle Mar Sarao2,b, y Simón Javier Hernández Gaspar3 1 Universidad Tecnológica de Tabasco, Química, 2Universidad Politécnica del Centro 3 Universidad Politécnica del Golfo de México, Seguridad y Automatización Industrial a Mecatrónica, bElectrónica y Telecomunicaciones Resumen El agua es uno de los recursos más importantes para las actividades humanas; aunque abunda en nuestro planeta, solo una pequeña fracción es útil para el consumo humano. De esto se desprende que el uso racional, responsable y eficiente del agua debe ser una prioridad en cualquier sociedad y país. Una parte del agua es utilizada con fines sanitarios. En particular, la evacuación de orina en los sanitarios conlleva el uso del agua, mediante la evacuación de los inodoros. El estado de Tabasco es uno de los más característicos de la República Mexicana, dado que este posee dos recursos importantes como son: el agua potable y el petróleo. Sin embargo, en ciertas épocas del año el estado sufre de la falta del vital líquido (agua), a pesar de que este tenga grandes precipitaciones anuales que en algunas ocasiones pueden provocar hasta inundaciones y que como consecuencia conlleve a grandes pérdidas económicas, es bien conocido en la región que durante en el período comprendido entre los meses de abril-julio se presentan como período de seca, presentándose una gran escasez teniendo un gran impacto en los sectores domésticos, agrícolas, ganaderos, etc. Por otro lado además de la sequía en ese período, se percibe un uso excesivo de agua para fines sanitarios, de la misma forma que en otras épocas del año donde abunda el agua. En el presente trabajo se realiza un análisis estadístico, sobre datos obtenidos mediante una encuesta realizada a estudiantes de Tabasco de las universidades UPC, UPGM y UTTAB, con el fin de estimar cuanto del vital líquido es usado para la evacuación de residuos de orina por parte de varones. Con lo anterior se busca contar con un estudio piloto para la propuesta de una campaña de concientización para promover el uso de mingitorios que usen menos agua, o bien mingitorios secos o libres de agua. La metodología anterior se decidió mediante una discusión grupal con base a una tabla de actividades que se realizan de manera diaria y cotidianamente en una casa habitación. Entre los puntos que se consideraron importantes, están el conocer el número de hombres existentes en cada domicilio, la veces que se acude al sanitario a orinar, el uso y existencia de sanitarios con caja con volúmenes diversos, existiendo estos en un rango de 5 a 20 litros, cajas con sistemas ahorradores de agua, etc., concluyendo que en dicha actividad el desperdicio de agua es bastante significativo, razón por la cual se decidió realizar un estudio estadístico. Es importante mencionar que en dicho estado no existe un sistema de monitoreo o control del volumen de agua que los habitantes consumen y que el costo bimestral es sumamente bajo para la importancia que contiene este vital liquido, razón por la cual, consideramos que no existe una conciencia sobre la importancia de su cuidado, control y usos. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Modelación de Valores Extremos de Precipitación Pluvial Usando Modelos VGAM Ponente: Violeta De La Huerta Contreras1 Coautor: Humberto Vaquera Huerta1 1 Colegio de Postgraduados, Estadística Resumen La intensidad y periodicidad de lluvias reconocidas como atípicas en nuestro país llaman a un estado de alerta. Es así que se ha realizado la modelación pluvial de riesgos de inundaciones para la ciudad de Mèxico y zonas conurbadas; usando la base de registros de precipitación del Clicom con datos de 1921 al 2012. Se emplearon modelos lineales generalizados aditivos vectoriales (VGAM) ajustando a una distribución de Valores Extremos Generalizada empleando el valor máximo mensual, obteniendo los niveles de retorno a cien, ochenta, sesenta, y cincuenta meses de doscientas veintiún estaciones meteorológicas. Utilizando métodos de interpolación espacial (Kriging e IDW) se elaboraron mapas de riesgos los cuales indican que la incidencia de eventos extremos de precipitación se incrementará sobre todo en las zonas centro-sur de la Ciudad de México. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Modelos Lineales XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Modelo Óptimo para Identificar el Confort Térmico en el Metro de la Ciudad de México Estación Zapata Ponente: Julia Aurora Montano Rivas1,a Coautores: Patricia Díaz Gaspar1,a e Irving R. Méndez Pérez1,b 1 UV, aFacultad de Estadística e Informática bCentro de Ciencias de la Tierra Resumen En este trabajo se caracteriza el confort o disconfort térmico que perciben los pasajeros del Metro de la Ciudad de México, estación Zapata, problema que se presenta en condiciones de ventilación natural y aumento de la temperatura en las horas pico. Por ello, el objetivo es encontrar un modelo de regresión logística óptimo que permita identificar las variables que influyen en el malestar térmico del usuario cuando éste se encuentra en el área Andén. Como método de optimización se aplican algoritmos genéticos y para elegir el mejor modelo nos basaremos en las pruebas de Hosmer y Lemeshow y validación cruzada. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Uso de Algoritmos Genéticos para Encontrar el Modelo Óptimo de Regresión Logistica Ponente: Gloria Edith Rodríguez Ramirez1 Coautores: Julia Aurora Montano Rivas1 y Ernesto Pedro Menéndez Ácuña1,b 1 Universidad Veracruzana , aFacultad de Estadística e Informática, bFacultad de Matemáticas Resumen Esta investigación tiene como objetivo la optimización del modelo de regresión logística a través de la técnica algoritmos genéticos. Para ello, se desarrolla un programa en lenguaje R donde tomando como referencia el grado de los modelos se obtienen 11 clases, de las cuales a través de remuestreos y las operaciones genéticas se pretende visualizar el o los modelos más significativos. Para aplicación de este trabajo se utilizó una base de datos con 235 casos en pacientes con padecimientos de hígado graso a los cuales se les realizó las mediciones de su correspondiente índice de masa corporal. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Cotas para la Varianza del Estimador de Proporciones en el Muestreo por Conglomerados en dos Etapas con Tamaños Iguales Alberto Manuel Padilla Terán Banco De México, Investigación Económica Resumen En el problema de estimación de proporciones en el muestreo aleatorio simple es conocido el hecho de que la varianza de dicho estimador alcanza el máximo cuando la proporción es igual a 0.5. Cuando no se tiene información de la variable de interés por estimar, puede usarse el valor máximo de la varianza para el cálculo del tamaño de muestra. Este resultado se extiende al muestreo por conglomerados en dos etapas con tamaños iguales usando muestreo aleatorio simple en ambas etapas y se construyen expresiones para las varianzas mínima y máxima, sin considerar proporciones poblaciones iguales a cero o uno, para la varianza del estimador de proporciones. Las condiciones bajo las cuales se alcanzan los valores mínimo y máximo dependen del coeficiente de correlación intraclase de la variable de interés, de algunas cantidades relacionadas con el número de conglomerados en la población y muestra, así como del tamaño de los conglomerados. A partir de los valores de varianza mínima y máxima, resulta inmediato obtener cotas para el efecto del diseño y el coeficiente de variación. Las cotas se ilustran con algunos ejemplos. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Diagnóstico de la Parroquia de San Pio X, en la ciudad de Xalapa, Veracruz Ponente: Diana Elizabeth Valderrábano Pedraza1 Coautor: Minerva Reyes Félix1 1 Universidad Veracruzana, Facultad de Estadística e Informática Resumen En la actualidad, los tipos de religiones que existen en el mundo van en aumento, no así el número de fieles de una de las religiones que siempre ha predominado “la religión católica”, que ha visto disminuir en número a los integrantes de su comunidad. Esta situación constituye una gran preocupación para la Iglesia Católica, y en este caso para la Parroquia de San Pio X, que se encuentra ubicada en la ciudad de Xalapa, Veracruz, México; la cual está interesada en tener un diagnóstico de la opinión de los feligreses sobre los servicios que ofrece e identificar el posicionamiento que tienen como Iglesia en la zona parroquial que le corresponde. Cabe mencionar que se conoce como zona parroquial a la zona geográfica en la que se ubica el Templo. Para realizar el estudio, se consideró a los feligreses que asisten a la Parroquia de San Pio X y a las personas que viven en la zona parroquial delimitada. Además, el estudio consta de dos etapas, la primera es el diseño del cuestionario dirigido a los asistentes de dicha parroquia y la segunda el diseño muestral estratificado de acuerdo a la zona parroquial; realizando el levantamiento de encuestas en ambas etapas. Terminadas las etapas del estudio, se realizó el análisis estadístico que permitirá a la Iglesia tener mayores elementos para realizar acciones encaminadas a mejorar sus servicios y a atraer mayor cantidad de fieles. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Encuesta de Salud y Nutrición Infantil en Municipios del Estado de Tabasco Ponente: Josefina Alvarado Leyva1, a Coautores: José Reyes Montejo Velázquez1, a, Lizania De La Cruz De La Cruz1,a, Luis Reyes Velázquez1,b y Fidel Ulín Montejo1,b 1 UJAT, aActuaria, bMatemáticas Resumen En las últimas tres décadas la obesidad ha emergido como una epidemia mundial que afecta todas las edades y todos los niveles socioeconómicos. Los datos de prevalencia de la obesidad en México tienen una tendencia ascendente. En este trabajo se ilustran los resultados y análisis preliminares de un estudio diseñado para conocer las condiciones de salud y nutrición infantil en hogares con niños y niñas menores de 5 años en municipios del estado de Tabasco. Los objetivos de esta encuesta fueron conocer la cobertura y utilización de servicios de salud, analizar las condiciones y determinantes de salud y nutrición en los municipios considerados, y conocer la frecuencia, distribución y tendencia de las condiciones y determinantes de la salud y nutrición de niñas y niños menores de 5 años. Para tal efecto se empleó una muestra seleccionada mediante muestreo probabilístico, polietápico, estratificado y por conglomerados, de acuerdo a la densidad poblacional reportada por el INEGI para cada municipio, conformada por asentamientos con más de 2500 habitantes. Las variables de interés para este estudio, son las Desnutrición y obesidad infantil. Para llevar a cabo el análisis del estado de nutrición, se medirá el peso y la talla o longitud realizadas por personal capacitado y procedimientos estandarizados según protocolos convencionales. Se registrará el peso y la talla para construir los índices antropométricos. Tablas, cuadros y gráficos son presentados para ilustrar los resultados y análisis preliminares. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Normalidad Asintótica del Estimador Máximo Verosímil del Tamaño Poblacional bajo la Variante del Muestreo por Bola de Nieve Propuesta por Félix-Medina y Thompson Martin Humberto Felix Medina Universidad Autónoma De Sinaloa, Facultad De Ciencias Físico-Matemáticas Resumen Félix-Medina y Thompson (JOS, 2004) propusieron una variante del muestreo por bola de nieve en la cual se construye un marco muestral incompleto de sitios de reunión de los elementos de la población. Se toma una muestra de sitios y a los elementos allí encontrados se les pide que nombren a otros elementos. Estos autores derivaron estimadores máximo verosímiles (EMVs) del tamaño poblacional bajo el supuesto de que la probabilidad de que una persona sea nombrada por alguna de las encontradas en un sitio particular (probabilidad de liga) no depende de la persona sino sólo del sitio (hipótesis de homogeneidad). Posteriormente, Félix-Medina y col. (Proc. Sec. Surv. Res. Meth.-JSM, 2009) y FélixMedina y Domínguez-Molina (Proc. Sec. Surv. Res. Meth.-JSM, 20012) derivaron EMVs del tamaño poblacional bajo modelos que toman en cuenta la heterogeneidad de las probabilidades de ligas. En este trabajo se considera un modelo general para estas probabilidades y se establecen condiciones que garantizan la normalidad asintótica del EMV del tamaño poblacional. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Tamaño muestral para preferencias electorales con tres o más candidatos bajo muestreo complejo Ponente: José Luis Ávila Valdez1,2 Carlos Felipe Henríquez Roldán1 1 Universidad de Valparaíso, Facultad de Ciencias, 2Universidad Popular Autónoma del Estado de Puebla, Área de Matemáticas y Estadística para Ciencias Sociales. Resumen Cinco son los elementos fundamentales que determinan el tamaño de muestra: el nivel de confianza deseado, el error de estimación o margen de error, la varianza de la variable en estudio, la información a priori acerca de la variable de interés y el plan de muestreo utilizado en la recolección de los datos. A excepción de la distribución binomial donde el tamaño de la muestra se obtiene considerando “el peor escenario” para el cliente, cuando la varianza se maximiza, no se requiere de información sobre la varianza. En cualquier otro caso se requieren los cinco elementos antes mencionados. Por otro lado, el plan de muestreo pocas veces es considerado en el cálculo del tamaño de la muestra y éste último por lo general se obtiene como si se tratara de un muestreo aleatorio simple. Existen casos donde el tamaño de la muestra no se puede obtener de manera cerrada, por ejemplo cuando la distribución multinomial admite tres o más opciones. En este trabajo se presenta un método para obtener el tamaño de muestra para la distribución multinomial mediante simulaciones, incorporando el plan de muestreo utilizado a través del efecto de diseño. Se simulan diferentes escenarios para niveles de confianza del 90%, 95% y 99% y márgenes de error de 0.01, 0.02, 0.03, 0,04 y 0.05, se asume que las población es suficientemente grande por lo que no se utiliza factor de corrección para poblaciones finitas y que el muestreo es realizado sin reemplazo. Finalmente, el método aquí presentado se aplica a la determinación del tamaño de la muestra para un caso real de una encuesta para evaluar preferencias electorales. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Series de Tiempo XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Análisis de Variables Climatológicas del Estado de Tlaxcala Ponente: Silvia Herrera Cortés1 Coautor: Bulmaro Juárez Hernández1 1 BUAP, FCFM Resumen El pronóstico de variables climatológicas juega un papel importante en las actividades realizadas por el hombre, pues le permite prever medidas de adaptación para minimizar los efectos ocasionados por su variabilidad, cuya causa se le puede atribuir a la variabilidad natural del clima, al cambio climático generado por la concentración de gases de efecto invernadero en la atmósfera, o ambos. El análisis sobre comportamiento de las variables climatológicas cuyo registro numérico de sus características son longitudinales, se puede realizar con series de tiempo cuyo objetivo es el de predecir o pronosticar datos. En el estudio de las series de tiempo los métodos utilizados en la predicción están basados en el supuesto de un comportamiento lineal, lo que en condiciones climatológicas no es una realidad, por esto, es necesario buscar métodos más precisos que permitan hacer pronósticos con un menor margen de error. En este trabajo se hace un análisis de variables climatológicas del estado de Tlaxcala (temperatura, precipitación) mediante la metodología de Box-Jenkins para series de tiempo además de realizar una comparación con resultados obtenidos a través de redes neuronales. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Análisis Espectral Singular de las Series de Tiempo de Precipitación y Temperatura de Riobamba, Ecuador Ponente: Sergio Francisco Juárez Cerrillo1 Coautores: Fernando Romero1 y Sergio Hernández González1 1 Universidad Veracruzana, Facultad de Estadística e Informática Resumen El Análisis Espectral Singular (AES) es una técnica de desarrollo reciente para analizar series de tiempo. En esencia, es un análisis de componentes principales en el dominio del tiempo de una serie de tiempo. El objetivo del AES es extraer información de la dinámica de una serie de tiempo y resulta una herramienta poderosa para analizar series de tiempo cortas y con mucho ruido. Es por esto que el AES se ha aplicado ampliamente en geofísica, climatología, meteorología y recientemente en econometría y finanzas. En este trabajo presentamos brevemente el AES y lo ilustramos con el análisis de la series de tiempo de precipitación y temperatura mensuales registradas en la ciudad de Riobamba, Ecuador, de 1976 al 2010. Los cálculos se realizaron con el paquete Rssa de R. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Estimación Basada en Cadenas de Markov Monte Carlo para el Análisis de Series de Tiempo Enteras Ponente: Eduardo Selim Martínez Mayorga1 Coautor: Ruth Selene Fuentes García1 1 UNAM, FC Resumen En este trabajo se revisan muchas de las ideas más conocidas en series de tiempo que toman valores en un espacio a lo más numerable. Se explica por qué algunas de las técnicas estándar en el análisis de series de tiempo no son adecuadas y las aproximaciones asintóticas se deben considerar de forma muy cuidadosa y la mayoría de las veces son inadecuadas. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Modelos ocultos de Markov: Una aplicación a las finanzas Ana Gabriela López Gutiérrez1 Ana Gabriela López Gutiérrez1 y Blanca Rosa Pérez Salvador1 1 UAM-I, Departamento de Matemáticas Resumen El modelo de Black-Scholes es un modelo ampliamente utilizado para estimar el precio de las opciones en el mercado de valores, este modelo se basa en el movimiento Browniano como un proceso evolutivo del activo subyacente. Sin embargo, el proceso de evolución del activo subyacente siempre está dado en un entorno no estable, es decir, puede cambiar de "bueno" a "malo", de "malo" a "normal", etc., de manera aleatoria. Por lo tanto, los valores de las opciones pueden ser afectados por este entorno. Janssen, Manca y E. Volpe, 2009, propusieron una modificación de la fórmula de Black-Scholes asumiendo el entorno como una cadena de Markov en la cual se conocen los posibles estados del sistema, pero se desconoce el estado en el que se encuentra el proceso en el tiempo t, porque permanecen ocultos. A partir de esta modificación, Luc Tri Tuyen (2010) utiliza los modelos ocultos de Markov para estimar los parámetros de una cadena de Markov para analizar y predecir fenómenos de series de tiempo. En este trabajo se presentan los modelos ocultos de Markov aplicados a la modificación de la fórmula de Black-Scholes propuesta por Janssen, Manca y E. Volpe y lo propuesto por Luc Tri Tuyen. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Simulación, Cómputo y Software Estadístico XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Algoritmos Evolutivos para el Diseño T-óptimo Ponente: Wilfrido Jacobo Paredes García1 Coautor: Eduardo Castaño Tostado1 UAQ, Facultad de Ingeniería Resumen En este trabajo se aborda el uso de los llamados algoritmos evolutivos diferenciales y el algoritmo de colonia artificial de abejas para tratar el problema del diseño T-óptimo para discriminar entre dos modelos alternativos. Se presentará su implementación usando R y una comparación de estos algoritmos evolutivos y los métodos clásicos de optimización. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Data Warehouse y Minería de Datos Ponente: José Antonio Flores Cruz1,a Coautores: José Luis García Cue1,a, Yolanda Margarita Fernández Ordoñez1,b y Reyna Carolina Medina Ramírez2, c 1 a Colegio de Postgraduados, 2Universidad Autónoma Metropolitana Estadística, bCómputo Aplicado, cDepartamento de ingeniería Eléctrica Resumen En el presente trabajo se introduce la forma básica de cómo pueden evolucionar e integrarse las arquitecturas de bases de datos para entregar el valor de la minería de datos a los usuarios finales XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Estimación de Densidad por Núcleo (Kernel) para Datos Circulares Ponente: Isaías Hazarmabeth Salgado Ugarte1 Coautor: Marco Aurelio Pérez Hernández1 1 F.E.S. Zaragoza UNAM, Biología (Biometría y Biología Pesquera) Resumen La información cuantitativa recabada tomando como referencia a una escala circular ocurre comúnmente en campos diversos de la actividad humana. Como con las escalas lineales, la distribución es una característica que debe entenderse para interpretar adecuadamente el mensaje que transmiten los datos. Una de las herramientas más importantes para analizar la distribución de los datos es la estimación de densidad por núcleo (kernel) la cual resuelve los problemas del efecto del origen y la discontinuidad de los histogramas tradicionales, proporcionan guías para escoger la amplitud de intervalo (ventana) y pueden estructurarse con amplitud variable de ventana para ajustar por abundancia o escasez de observaciones. En esta contribución y con base en trabajos previos sobre tratamiento estadístico de datos circulares y lineales, presentamos una serie de programas para llevar a cabo estimaciones de densidad circular. El primero permite calcular varias reglas prácticas para elegir el ancho de ventana adaptadas (al considerar la dispersión circular) de reglas para datos lineales y un procedimiento basado en el parámetro de dispersión de la distribución de von Mises (equivalente circular de la Gaussiana); el segundo permite estimar la densidad con varias funciones ponderales (kernel o núcleo) tales como uniforme, triangular, Epanechnikov, cuártica (biponderada), triponderada, Gaussiana y coseno. Este algoritmo despliega los resultados en forma linear o circular, cuenta y estima modas, antimodas y hace posible generar variables de densidad y puntos de cálculo (en grados) para uso posterior; el tercero es similar al anterior pero estima la densidad con la función ponderal de von Mises; el último dibuja gráficos circulares de densidad personalizados. Presentamos su aplicación sobre varios conjuntos de datos (propios o provenientes de la literatura). En nuestra experiencia, estos programas proporcionan una herramienta muy poderosa que lleva a un conocimiento profundo de características importantes de distribución circular tales como simetría, sesgo y modalidad. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Un Sistema Experto para la Descripción Automatizada de Datos Paul Ramírez De la Cruz CIMAT, A. C., Unidad Aguascalientes Resumen Las oficinas de estadísticas oficiales y otras entidades relacionadas, producen grandes volúmenes de tabulados y gráficas descriptivas que ponen a disposición de sus usuarios, ya sea de manera impresa o en formato electrónico. Esta información, aunque muy importante, puede en ocasiones resultar poco clara para el usuario ocasional. Se presenta el planteamiento básico de un sistema experto que produce una explicación de las principales características de un conjunto de datos a partir del conjunto mismo o de un resumen tabular. XXIX Foro Internacional de Estadística, Puebla, Puebla. Sesión de carteles 2014 Teoría y Aplicaciones de Valores Extremos XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Aplicación de Algunos Métodos para Estimar Medidas de Riesgo Financiero como el VaR y EVaR Ponente: Jaime Iván Urbina Rugerio1 Coautores: Gabriel Nuñez Antonio1 y Patricia Saavedra Barrera1 1 UAM-I, Departamento de Matemáticas Resumen En el presente trabajo se aplican algunos métodos estadísticos para estimar medidas como el Valor en Riesgo (VaR) y el Valor en Riesgo Condicionado (EVaR). Lo anterior, en el contexto de las pérdidas que se obtiene al invertir en ciertos portafolios de inversión. Los métodos aplicados son el denominado varianza-covarianza, el método histórico y el método de picos sobre el umbral, este último asociado a la metodología de valores extremos. Los procedimientos mencionados se aplican y comparan en dos tipos de portafolio, uno constituido por 5 acciones del sector de la industria de la construcción que cotizan en la Bolsa Mexicana de Valores (BMV) y el otro por 3 bonos cupón cero con tasas de rendimiento a 28, 91 y 182 días, respectivamente. Finalmente, se presentan conclusiones con base en el desempeño de cada método. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Modelación de los Retornos del IPC, 1991-2014 con las Distribuciones Pareto y Pareto Generalizada Ponente: Genoveva Lorenzo Landa1 Coautor: Sergio Francisco Juárez Cerrillo1 1 Universidad Veracruzana, Facultad de Estadística e Informática Resumen Se calcula el Valor en Riesgo (VaR) de los retornos negativos del IPC. Tradicionalmente se ha utilizado la distribución normal para calcular el VaR. Sin embargo esta distribución no es la adecuada para analizar extremos. Puesto que nos interesan las pérdidas grandes del IPC utilizamos un enfoque de extremos para lo cual ajustamos a los retornos negativos extremos las Distribuciones Pareto y Pareto Generalizada. Utilizamos máxima verosimilitud para datos censurados en el caso de la Pareto y máxima verosimilitud para excedentes sobre umbrales para la Pareto Generalizada. En este trabajo presentamos el ajuste de ambas distribuciones a los retornos negativos. La siguiente fase es elegir a una distribución, ya sea la Pareto o la Pareto Generalizada como mejor modelo para los retornos negativos del IPC. Utilizaremos la medida de bondad de ajuste Valor Promedio Absoluto Escalado como criterio para elegir la distribución. Finalmente, con el modelo elegido procederemos a calcular el VaR de los retornos negativos del IPC. XXIX Foro Internacional de Estadística, Puebla, Puebla. 2014 Sesión de carteles Optimización del Logaritmo de la Función de Verosimilitud a Través del Algoritmo Genético Asael Angel Santiago1 Pedro E. Menéndez Acuña1 y Julia Aurora Montano Rivas1 1 UV, Facultad de Estadística e Informática Resumen En este trabajo se pretende maximizar el logaritmo de la función de verosimilitud a través de la aplicación del algoritmo genético, para la obtención del estimador máximo verosímil de un parámetro, sin tener que transitar por la solución de una ecuación de verosimilitud. Esta propuesta se ensaya primeramente con distribuciones que dependan de un solo parámetro: Bernoulli, Poisson y Exponencial. Posteriormente se considera una situación donde la solución de la ecuación de verosimilitud requiera de un método numérico para su solución, aplicándose en este caso un método numérico clásico para la solución de la ecuación de verosimilitud y el algoritmo genético para maximizar la función de verosimilitud. Se simulan muestras aleatorias de las distribuciones de interés con el objetivo de evaluar la propuesta. XXIX Foro Internacional de Estadística, Puebla, Puebla.