TRABAJO N°1 DE DISEÑO DE EXPERIMIENTOS ANÁLISIS COMPARATIVOS SIMPLES JESUS RAMON SANCHEZ DURAN CC. 1´090.391.696 de Cúcuta PROFESORA: LUZ MARCELA RESTREPO TAMAYO ING. INDUSTRIAL MAESTRÍA EN INGENIERÍA CIVIL/ENFASIS EN PROFUNDIZACION EN GEOTÉCNIA UNIVERSIDAD DE MEDELLÍN 2020 PRIMER TRABAJO: Análisis Comparativos Simples 2. Ejercicio práctico -1 En Kocaoz, S. Samaranayake, V. A. NanniA. (2005) se presenta un estudio donde se analizan dos tipos de barras de polímero, cuya tensión se refuerza con fibra de vidrio (FRP). Estas barras, en sustitución de las vigas de acero, son utilizadas para reforzar concreto, por lo que su caracterización es importante para fines de diseño, control y optimización para los ingenieros estructurales. Las barras se sometieron a tensión hasta registrarse su ruptura (en Mpa). Los datos para dos tipos de barras se muestran a continuación: - ¿Cuál de los dos tipos de barra prefiere a partir del análisis de los datos? Para responder esta pregunta realice: construcción y análisis de diagrama boxplot, construcción y análisis de pruebas de bondad de ajuste, construcción y análisis de pruebas de hipótesis. - ¿Cuál es el tamaño de muestra que se requiere de cada tipo de barra para asegurar una confianza del 95%? > summary(Barra_1) Min. 1st Qu. Median 815.0 966.8 1015.0 > summary(Barra_2) Min. 1st Qu. Median 843.0 971.8 1007.5 > sd(Barra_1) [1] 73.75333 > sd(Barra_2) [1] 68.14572 Mean 3rd Qu. 980.1 1022.8 Max. 1034.0 Mean 3rd Qu. 986.9 1028.2 Max. 1053.0 Diagrama box-plot: Análisis: La geometría de las cajas induce que hay presencia de outlier. Los datos de la barra_1 tiene un sesgo a la izquierda y los datos de la barra_2 “la caja más larga” confirman que se tratan de unas variables más dispersa. Las medianas de los dos conjuntos de datos están por encima del promedio. Aunque podremos decir que en la barra_1 tiene menor dispersión y a priori sería la mejor opción, hay que resaltar que la barra_2 presenta valores de resistencia más alto en las mediciones. Tabla 1. Pruebas de bondad de ajuste ejercicio practico_1 Prueba bondad de ajuste Nombre del Test Shapiro-Wilk normality test Hipótesis nula Ho= Distribución Normal Nivel de significancia Alpha= 0.05 p-value barra_1= 0.006195 p-Value* p-value barra_2 = 0.1117 Criterio de decisión Si p-value´>0.05 Distribución normal Decisión No rechaza Implicaciones de la decisión Barra_1 La distribución no es normal Barra_2 La distribución es normal Análisis: En general que el p-value para la barra_1 en las pruebas de bondad de ajustes es inferior a 0.05(<5%), esto quiere decir que los valores de resistencia de la barra NO siguen una distribución normal. Por lo contrario, para la barra_2, los datos de resistencia siguen una distribución normal. Tabla 2. Pruebas de hipótesis para el ejercicio practico_1. Varianzas Prueba de hipotesis Nombre del Test F test to compare two variances Hipótesis nula Ho=𝜎12=𝜎22 Nivel de significancia p-Value* Alpha= 0.05 p-value = 0.8401 Criterio de decisión Si p-value´>0.05 Ho se cumple Decisión No rechaza Implicaciones de la decisión Las varianzas poblaciones son iguales Intervalos de confianza. Análisis: Las varianzas poblaciones, aunque son desconocidas son iguales debido a que el intervalo de confianza contiene el 1. L.I: 0.2345084 L. S: 5.8507788 σ12= σ22 Tabla 3. Pruebas de hipótesis para el ejercicio practico_1. Medias Prueba de hipotesis Nombre del Test Two Sample t-test Hipótesis nula Ho=μ y1 =μ y2 Nivel de significancia p-Value* Alpha= 0.05 p-value = 0.8519 Criterio de decisión Si p-value´>0.05 Ho se cumple Decisión No rechaza Implicaciones de la decisión Las medias son iguales Intervalos de confianza. Análisis: El 0 está incluido, por lo tanto, las medias son estadísticamente iguales. L.I = -82.89519, L.S = 69.39519 μ1 = μ2 Conclusión Final; Según análisis de datos los dos tratamientos son iguales o casi parecidos. Es probable que existan otros tratamientos probablemente con datos más cercanos entre ellos 3. Ejercicio práctico -2 Usted compra materia prima a dos diferentes proveedores y usted está preocupado por la variabilidad de las impurezas de un embarque a otro. Si el nivel de impurezas tiende a variar de manera excesiva para una fuente de suministro, podría afectar la calidad del producto terminado. Para comparar el porcentaje de impurezas para los dos proveedores y su variación, el fabricante selecciona diez embarques de cada uno de ellos y mide el porcentaje de impurezas de la materia prima para cada embarque. Los datos obtenidos son los siguientes: ¿Considera usted que son diferentes las variabilidades del porcentaje de impurezas que presentan ambos proveedores? - ¿Cuál de los dos tipos de proveedor prefiere a partir del análisis de los datos? Para responder esta pregunta realice: construcción y análisis de diagrama box-plot, construcción y análisis de pruebas de bondad de ajuste, construcción y análisis de pruebas de hipótesis - ¿Cuál es el tamaño de muestra que se requiere de cada tipo de barra para asegurar una confianza del 95%? > # scrip Comparacion de experimentos Simple > Proveedor_1=c(0.85,0.14,0.25,0.61,0.43,0.42,0.6,0.34,0.83,0.85) > Proveedor_2=c(0.21,0.08,0.44,0.21,0.20,0.29,0.45,0.62,0.47,0.24) > boxplot(Barra_1,Barra_2, horizontal=TRUE,border=c("blue","red"),ylab="M étodo",xlab="Tiempo",names=c("Barra_1","Barra_2")) > summary(Proveedor_1) Min. 1st Qu. Median Mean 3rd Qu. Max. 0.140 0.360 0.515 0.532 0.775 0.850 > summary(Proveedor_2) Min. 1st Qu. Median Mean 3rd Qu. Max. 0.0800 0.2100 0.2650 0.3210 0.4475 0.6200 > sd(Proveedor_1) [1] 0.2570689 > sd(Proveedor_2) [1] 0.1657609 Análisis: La geometría de la caja induce que no hay presencia de outlier, por lo que también podría decirse que la calidad de los datos para este ensayo es alta. Los porcentajes de impurezas del proveedor 1, tiene un sesgo a la izquierda y los datos del provedor_2 “la caja más corta” se presenta un menor rango intercuartil confirman que se tratan de una variable mejor agrupada. Las medianas de los dos conjuntos de datos están por debajo del promedio. Al parecer el proveedor_2, presenta un mejor comportamiento de los datos, además de los valores más bajo del porcentaje de impurezas. ¿Considera usted que son diferentes las variabilidades del porcentaje de impurezas que presentan ambos proveedores? Si, son diferentes, esto se puede inferior por los valores de las desviaciones standar (Sd). Diagrama box-plot: Tabla 4. Pruebas de bondad de ajuste ejercicio practico_2 Prueba bondad de ajuste Nombre del Test Shapiro-Wilk normality test Hipótesis nula Ho= Distribución Normal Nivel de significancia Alpha= 0.05 p-value proveedor A= 0.3607 p-Value* p-value proveedor B = 0.4774 Criterio de decisión Si p-value´>0.05 Distribución normal Decisión No rechaza Implicaciones de la decisión Proveedor A. La distribución es normal Proveedor B. La distribución es normal Análisis: En general que el p-value para los valores de impurezas el proveedor_1 y proveedor_2 en las pruebas de bondad de ajustes son mayores a 0.05(<5%), esto quiere decir que los valores de los dos proveedores siguen una distribución normal. No se rechaza la hipótesis nula. Tabla 5. Pruebas de hipótesis para el ejercicio practico_2. Varianzas Prueba de hipótesis Nombre del Test F test to compare two variances Hipótesis nula Ho=𝜎12=𝜎22 Nivel de significancia p-Value* Alpha= 0.05 p-value = 0.2072 Criterio de decisión Si p-value´>0.05 Ho se cumple Decisión No rechaza Implicaciones de la decisión Las varianzas poblaciones son iguales Intervalos de confianza. Análisis: Las varianzas poblaciones, aunque son desconocidas son igual debido a que el intervalo de confianza contiene el 1. L.I: 0.5973957 L. S: 9.6829645 σ12= σ22 Tabla 6. Pruebas de hipótesis para el ejercicio practico_2. Medias Prueba de hipótesis Nombre del Test Two Sample t-test Hipótesis nula Ho=μ y1 =μ y2 Nivel de significancia p-Value* Alpha= 0.05 p-value = 0.04266 Criterio de decisión Si p-value´>0.05 Ho se cumple Decisión Se rechaza Implicaciones de la decisión Las medias no son iguales Intervalos de confianza. Análisis: El 0 NO está incluido en el intervalo, por lo tanto, las medias no son, SE rechaza la hipótesis nula. L.I = 0.007784129, L.S = 0.414215871 μ1 ≠ μ2 Conclusión; Según análisis el proveedor_2 se prefiere ya que presenta unos menores valores en la medición de impurezas bajos y mejor agrupación de los datos. 4. Diseñar, resolver (preferiblemente en r) y explicar dos ejemplos relacionados con el área de formación, siguiendo los pasos de análisis vistos en clase 4. Ejercicio práctico -3.1 Datos del área Se compara la resistencia al corte no drenado (Su) de arcilla no saturadas con dos ensayos uno de campo y otro de laboratorio sobre el mismo material en un proyecto. Los valores de resistencia al corte no drenado están en kg/cm2. Para comparar el porcentaje resistencias y su variación, se toman diez mediciones en campo mediante equipo de campo y laboratorio. Los datos obtenidos son los siguientes: -Se quiere analizar la resistencia al corte no drenado Su y conocer cuál de los dos métodos tiene un compartimiento más coherente estadísticamente. Tipo de Ensayo R. Campo R. Laboratorio 1.75 2.51 2.20 2.75 3.00 3.2 Resistencia al corte no drenada (Cu) 2.70 1.25 3.00 1.85 2.35 2.61 3.85 2.14 2.30 2.24 - ¿Cuál de los dos tipos de ensayos prefiere a partir del análisis de los datos? 0.75 2.67 3.10 2.54 Min. 1st Qu. 0.750 1.775 > summary(RL) Min. 1st Qu. 2.140 2.390 > sd(RC) [1] 0.7943551 > sd(RL) [1] 0.5045834 Median 2.250 Mean 3rd Qu. 2.190 2.925 Max. 3.100 Median 2.575 Mean 3rd Qu. 2.686 2.730 Max. 3.850 Diagrama box-plot: R.L = Resistencia laboratorio R. C = Resistencia de Campo Análisis: La geometría de las cajas induce que hay presencia de outlier para los ensayos de laboratorio “RL”, y que presenta un sesgo a la derecha, pero presenta menor dispersión de los datos respecto a los ensayos de campo “RC”, los cuales presentan un gran sesgo a la izquierda. Las medianas de los ensayos de laboratorio “RL” casi se ajustan a la media, en cambio para los ensayos de campo “RC”, está por debajo de la media. Podemos inferior que la serie de datos para el ensayo de laboratorio “RL” tiene más congruencia y menor dispersión y que el outlier presente puede ser producto de algún error medición en el ensayo. Tabla 7. Pruebas de bondad de ajuste ejercicio practico_3.1 Prueba bondad de ajuste Nombre del Test Shapiro-Wilk normality test Hipótesis nula Ho= Distribución Normal Nivel de significancia Alpha= 0.05 p-value RC= p-value = 0.4648 p-Value* p-value RL= 0.07958 Criterio de decisión Si p-value´>0.05 Distribución normal Decisión No rechaza Implicaciones de la decisión RC: La distribución es normal RL :La distribución es normal Análisis: En general que el p-value para los dos ensayos tanto de campo “RC” y laboratorio “RL” en las pruebas de bondad de ajustes es mayor a 0.05(>5%), esto quiere decir que los valores de resistencia al corte no drenado de los ensayos siguen una distribución normal. Tabla 8. Pruebas de hipótesis para el ejercicio practico_3.1. Varianzas Prueba de hipótesis Nombre del Test F test to compare two variances Hipótesis nula Ho=𝜎12=𝜎22 Nivel de significancia p-Value* Alpha= 0.05 p-value = 0.1129 Criterio de decisión Si p-value´>0.05 Ho se cumple Decisión No rechaza Implicaciones de la decisión Las varianzas poblaciones son iguales Intervalos de confianza. Análisis: Las varianzas poblaciones, aunque son desconocidas son iguales debido a que el intervalo de confianza contiene el 1. L.I: 0.6155881 L. S: 9.9778396 σ12= σ22 Tabla 9. Pruebas de hipótesis para el ejercicio practico_3.1. Medias Prueba de hipótesis Nombre del Test Two Sample t-test Hipótesis nula Ho=μ y1 =μ y2 Nivel de significancia p-Value* Alpha= 0.05 p-value = 0.1129 Criterio de decisión Si p-value´>0.05 Ho se cumple Decisión No se rechaza Implicaciones de la decisión Las medias son iguales Intervalos de confianza. Análisis: estadísticamente iguales El 0 está incluido, por lo tanto, las medias son L.I = -1.1212156, L.S = 0.1292156 μ1 = μ2 Conclusión; Según análisis de datos las dos mediciones de resistencia son iguales o casi parecidos. Por la dispersión de datos en los valores de la desviación estándar y box-plot, se tiene que los ensayos de campo “RC” son más dispersos y pueden inferir más incertidumbre en las varianzas poblacionales, esto se entiende por qué el ensayo de campo, hay más margen de error en las mediciones comparados con respecto al ensayo de laboratorio “RL”. El mejor ensayo bajo este análisis estadístico es de la medición de las resistencias al corte no drenaje medida en laboratorio “RL”. Ejercicio práctico -3.2 Datos del área Se realiza un experimento con el uso de un aditivo químico que aumentan la resistencia del concreto adicionado por kg de cemento usado. Se miden pruebas o especímenes de concreto a la misma edad y condiciones ambientales Se ensayaron 10 muestras usando el aditivo y otras 10 muestras sin aditivos. Los ensayos fueron hechos a los 28 días de edad. La resistencia se mide en Mpa. # ensayo Con aditivo Sin aditivo 1 2 3 4 5 6 7 8 9 10 20 31 16 22 19 32 25 18 20 19 Mpa 23 34 15 21 22 31 29 20 24 23 Mpa -Concluir si el aditivo ayuda o no para aumentar la resistencia. CA = Con aditivo SA = Sin aditivo > summary(SA) Min. 1st Qu. 16.00 19.00 > summary(CA) Min. 1st Qu. 15.00 21.25 > sd(SA) [1] 5.452828 > sd(RL) [1] 0.5045834 Median 20.00 Mean 3rd Qu. 22.20 24.25 Max. 32.00 Median 23.00 Mean 3rd Qu. 24.20 27.75 Max. 34.00 Análisis: La geometría de las cajas induce que no hay presencia de outlier en los datos analizados. Se presenta un sesgo a la izquierdo para los datos de las resistencias sin aditivo “SA”. Las medianas de los ensayos están por debajo de la media. Tabla 10. Pruebas de bondad de ajuste ejercicio practico_3.2 Prueba bondad de ajuste Nombre del Test Shapiro-Wilk normality test Hipótesis nula Ho= Distribución Normal Nivel de significancia Alpha= 0.05 p-value con aditivo0.6792 p-Value* p-value sin aditivo= 0.07063 Criterio de decisión Si p-value´>0.05 Distribución normal Decisión No rechaza Implicaciones de la decisión CA: La distribución es normal SD :La distribución es normal Análisis: En general que el p-value para los dos datos analizados es mayor a 0.05. La distribución de los datos es normal. Tabla 11. Pruebas de hipótesis para el ejercicio practico_3.1. Varianzas Prueba de hipótesis Nombre del Test F test to compare two variances Hipótesis nula Ho=𝜎12=𝜎22 Nivel de significancia p-Value* Alpha= 0.05 p-value = 0.9243 Criterio de decisión Si p-value´>0.05 Ho se cumple Decisión No rechaza Implicaciones de la decisión Las varianzas poblaciones son iguales Tabla 12. Pruebas de hipótesis para el ejercicio practico_3.1. Medias Prueba de hipótesis Nombre del Test Two Sample t-test Hipótesis nula Ho=μ y1 =μ y2 Nivel de significancia p-Value* Alpha= 0.05 p-value = 0.4304 Criterio de decisión Si p-value´>0.05 Ho se cumple Decisión No se rechaza Implicaciones de la decisión Las medias son iguales Intervalos de confianza. Análisis: estadísticamente iguales El 0 está incluido, por lo tanto, las medias son μ1 = μ2 Conclusión; Con una confianza del 95%, no se concluye que los aditivos químicos aceleran el crecimiento de las resistencias, tiene mayor dispersión en los datos medidos, además que es una solución más costosa, debido al precio del aditivo respecto al cemento. Anexos Ejercicio práctico -1. Código en R CONSTRUCCIÓN Y ANÁLISIS DE PRUEBAS DE BONDAD DE AJUSTE: > shapiro.test(Barra_1) ## Prueba de Shapiro Shapiro-Wilk normality test data: Barra_1 W = 0.73917, p-value = 0.006195 > shapiro.test(Barra_2) Shapiro-Wilk normality test data: Barra_2 W = 0.85686, p-value = 0.1117 > library(nortest) > sf.test(Barra_2) ## Prueba Shapiro-Francia ## Shapiro-Francia normality test data: Barra_2 W = 0.84729, p-value = 0.08017 sf.test(Barra_1) ## Prueba Shapiro-Francia ## Shapiro-Francia normality test data: Barra_1 W = 0.72539, p-value = 0.007761 > ad.test(Barra_1) ## Prueba Anderson-Darling21 ## > ad.test(Barra_2) ## Prueba Anderson-Darling21 ## Anderson-Darling normality test data: Barra_2 A = 0.51695, p-value = 0.1288 Anderson-Darling normality test data: Barra_1 A = 0.92917, p-value = 0.009332 > cvm.test(Barra_2) ## Prueba Cramer-Von Mises ## Cramer-von Mises normality test data: Barra_2 W = 0.08367, p-value = 0.159 > cvm.test(Barra_1) ## Prueba Cramer-Von Mises ## Cramer-von Mises normality test data: Barra_1 W = 0.16107, p-value = 0.01261 > lillie.test(Barra_2) ## Prueba Lilliefors test ## Lilliefors (Kolmogorov-Smirnov) normality test data: Barra_2 D = 0.22733, p-value = 0.2586 > lillie.test(Barra_1) ## Prueba Lilliefors test ## Lilliefors (Kolmogorov-Smirnov) normality test data: Barra_1 D = 0.30684, p-value = 0.02555 > pearson.test(Barra_2) ## Prueba Pearson's chi-square ## Pearson chi-square normality test data: Barra_2 P = 2, p-value = 0.3679 > pearson.test(Barra_1) ## Prueba Pearson's chi-square ## Pearson chi-square normality test data: Barra_1 P = 9.5, p-value = 0.008652 CONSTRUCCIÓN Y ANÁLISIS DE PRUEBAS DE HIPÓTESIS > #Prueba T para diferencia de medias > var.test(x=Barra_1,y=Barra_2,conf.level=0.95)$conf.int #IC para saber s i las varianzas son iguales o son diferentes [1] 0.2345084 5.8507788 attr(,"conf.level") [1] 0.95 > t.test(x=Barra_1,y=Barra_2,conf.level=0.95,var.equal=TRUE)$conf.int #IC para diferencia de medias con varianzas iguales [1] -82.89519 69.39519 attr(,"conf.level") [1] 0.95 Experimento comparativo simple: > #Pruebas de hipótesis para la diferencia de medias > var.test(x=Barra_1,y=Barra_2,conf.level=0.95) #PH para saber si las var ianzas son iguales o son diferentes F test to compare two variances data: Barra_1 and Barra_2 F = 1.1713, num df = 7, denom df = 7, p-value = 0.8401 alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: 0.2345084 5.8507788 sample estimates: ratio of variances 1.171348 > t.test(x=Barra_1,y=Barra_2,conf.level=0.95,var.equal=TRUE) #PH para dif erencia de medias con varianzas iguales Two Sample t-test data: Barra_1 and Barra_2 t = -0.19013, df = 14, p-value = 0.8519 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: -82.89519 69.39519 sample estimates: mean of x mean of y 980.125 986.875 > t.test(x=Barra_1,y=Barra_2,conf.level=0.95,var.equal=FALSE) #PH para di ferencia de medias con varianzas diferentes Welch Two Sample t-test data: Barra_1 and Barra_2 t = -0.19013, df = 13.913, p-value = 0.852 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: -82.9397 69.4397 sample estimates: mean of x mean of y 980.125 986.875 Ejercicio práctico -2. Código en R CONSTRUCCIÓN Y ANÁLISIS DE PRUEBAS DE BONDAD DE AJUSTE: > ## Pruebas de normalidad analítica > shapiro.test(Proveedor_1) ## Prueba de Shapiro Shapiro-Wilk normality test data: Proveedor_1 W = 0.92045, p-value = 0.3607 > shapiro.test(Proveedor_2) Shapiro-Wilk normality test data: Proveedor_2 W = 0.93293, p-value = 0.4774 > library(nortest) > sf.test(Proveedor_1) ## Prueba Shapiro-Francia ## Shapiro-Francia normality test data: Proveedor_1 W = 0.94227, p-value = 0.5238 > ad.test(Proveedor_1) ## Prueba Anderson-Darling21 ## Anderson-Darling normality test data: Proveedor_1 A = 0.32709, p-value = 0.451 > cvm.test(Proveedor_1) ## Prueba Cramer-Von Mises ## Cramer-von Mises normality test data: Proveedor_1 W = 0.045525, p-value = 0.5429 > lillie.test(Proveedor_1) ## Prueba Lilliefors test ## Lilliefors (Kolmogorov-Smirnov) normality test data: Proveedor_1 D = 0.17682, p-value = 0.5038 > pearson.test(Proveedor_1) ## Prueba Pearson's chi-square ## Pearson chi-square normality test data: Proveedor_1 P = 3.2, p-value = 0.3618 > library(nortest) > sf.test(Proveedor_2) ## Prueba Shapiro-Francia ## Shapiro-Francia normality test data: Proveedor_2 W = 0.9332, p-value = 0.4231 > ad.test(Proveedor_2) ## Prueba Anderson-Darling21 ## Anderson-Darling normality test data: Proveedor_2 A = 0.40492, p-value = 0.2847 > cvm.test(Proveedor_2) ## Prueba Cramer-Von Mises ## Cramer-von Mises normality test data: Proveedor_2 W = 0.075012, p-value = 0.2151 > lillie.test(Proveedor_2) ## Prueba Lilliefors test ## Lilliefors (Kolmogorov-Smirnov) normality test data: Proveedor_2 D = 0.18746, p-value = 0.4087 > pearson.test(Proveedor_2) ## Prueba Pearson's chi-square ## Pearson chi-square normality test data: Proveedor_2 P = 6.8, p-value = 0.07855 CONSTRUCCIÓN Y ANÁLISIS DE PRUEBAS DE HIPÓTESIS > #Prueba T para diferencia de medias > var.test(x=Proveedor_1,y=Proveedor_2,conf.level=0.95)$conf.int #IC para saber si las varianzas son iguales o son diferentes [1] 0.5973957 9.6829645 attr(,"conf.level") [1] 0.95 > t.test(x=Proveedor_1,y=Proveedor_2,conf.level=0.95,var.equal=TRUE)$conf .int #IC para diferencia de medias con varianzas iguales [1] 0.007784129 0.414215871 attr(,"conf.level") [1] 0.95 Experimento comparativo simple: > #Pruebas de hipótesis para la diferencia de medias > var.test(x=Proveedor_1,y=Proveedor_2,conf.level=0.95) #PH para saber si las varianzas son iguales o son diferentes F test to compare two variances data: Proveedor_1 and Proveedor_2 F = 2.4051, num df = 9, denom df = 9, p-value = 0.2072 alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: 0.5973957 9.6829645 sample estimates: ratio of variances 2.405111 > t.test(x=Proveedor_1,y=Proveedor_2,conf.level=0.95,var.equal=TRUE) #PH para diferencia de medias con varianzas iguales Two Sample t-test data: Proveedor_1 and Proveedor_2 t = 2.1814, df = 18, p-value = 0.04266 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: 0.007784129 0.414215871 sample estimates: mean of x mean of y 0.532 0.321 Ejercicio práctico -3.1. Código en R CONSTRUCCIÓN Y ANÁLISIS DE PRUEBAS DE BONDAD DE AJUSTE: > shapiro.test(RC) ## Prueba de Shapiro Shapiro-Wilk normality test data: RC W = 0.9317, p-value = 0.4648 > shapiro.test(RL) Shapiro-Wilk normality test data: RL W = 0.86155, p-value = 0.07958 > library(nortest) > sf.test(RC) ## Prueba Shapiro-Francia ## Shapiro-Francia normality test data: RC W = 0.94538, p-value = 0.562 > ad.test(RC) ## Prueba Anderson-Darling21 ## Anderson-Darling normality test data: RC A = 0.27963, p-value = 0.5637 > cvm.test(RC) ## Prueba Cramer-Von Mises ## Cramer-von Mises normality test data: RC W = 0.037488, p-value = 0.6938 > lillie.test(RC) ## Prueba Lilliefors test ## Lilliefors (Kolmogorov-Smirnov) normality test data: RC D = 0.14606, p-value = 0.7889 > pearson.test(RC) ## Prueba Pearson's chi-square ## Pearson chi-square normality test data: RC P = 2, p-value = 0.5724 > library(nortest) > sf.test(RL) ## Prueba Shapiro-Francia ## Shapiro-Francia normality test data: RL W = 0.84966, p-value = 0.05435 > ad.test(RL) ## Prueba Anderson-Darling21 ## Anderson-Darling normality test data: RL A = 0.59497, p-value = 0.08837 > cvm.test(RL) ## Prueba Cramer-Von Mises ## Cramer-von Mises normality test data: RL W = 0.10202, p-value = 0.08984 > lillie.test(RL) ## Prueba Lilliefors test ## Lilliefors (Kolmogorov-Smirnov) normality test data: RL D = 0.24953, p-value = 0.07778 > pearson.test(RL) ## Prueba Pearson's chi-square ## Pearson chi-square normality test data: RL P = 5.6, p-value = 0.1328 CONSTRUCCIÓN Y ANÁLISIS DE PRUEBAS DE HIPÓTESIS > #Prueba T para diferencia de medias > var.test(x=RC,y=RL,conf.level=0.95)$conf.int #IC para saber si las vari anzas son iguales o son diferentes [1] 0.6155881 9.9778396 attr(,"conf.level") [1] 0.95 > t.test(x=RC,y=RL,conf.level=0.95,var.equal=TRUE)$conf.int #IC para dife rencia de medias con varianzas iguales [1] -1.1212156 0.1292156 attr(,"conf.level") [1] 0.95 > t.test(x=RC,y=RL,conf.level=0.95,var.equal=FALSE)$conf.int #IC para dif erencia de medias con varianzas diferentes [1] -1.1294101 0.1374101 attr(,"conf.level") Experimento comparativo simple: > #Pruebas de hipótesis para la diferencia de medias > var.test(x=RC,y=RL,conf.level=0.95) #PH para saber si las varianzas son iguales o son diferentes F test to compare two variances data: RC and RL F = 2.4784, num df = 9, denom df = 9, p-value = 0.1925 alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: 0.6155881 9.9778396 sample estimates: ratio of variances 2.478354 > t.test(x=RC,y=RL,conf.level=0.95,var.equal=TRUE) #PH para diferencia de medias con varianzas iguales Two Sample t-test data: RC and RL t = -1.6667, df = 18, p-value = 0.1129 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: -1.1212156 0.1292156 sample estimates: mean of x mean of y 2.190 2.686 Ejercicio práctico -3.2. Código en R > # scrip Comparacion de experimentos Simple > SA=c(20,31,16,22,19,32,25,18,20,19) > CA=c(231,34,15,21,22,31,29,20,24,23) > boxplot(SA,CA, horizontal=TRUE,border=c("blue","red"),ylab="Prueba",xla b="Mpa",names=c("SA","CA")) > summary(SA) Min. 1st Qu. Median Mean 3rd Qu. Max. 16.00 19.00 20.00 22.20 24.25 32.00 > # scrip Comparacion de experimentos Simple > SA=c(20,31,16,22,19,32,25,18,20,19) > CA=c(23,34,15,21,22,31,29,20,24,23) > boxplot(SA,CA, horizontal=TRUE,border=c("blue","red"),ylab="Prueba",xla b="Mpa",names=c("SA","CA")) > # scrip Comparacion de experimentos Simple > SA=c(20,31,16,22,19,32,25,18,20,19) > CA=c(23,34,15,21,22,31,29,20,24,23) > boxplot(SA,CA, horizontal=TRUE,border=c("blue","red"),ylab="Prueba",xla b="Mpa",names=c("SA","CA")) > summary(SA) Min. 1st Qu. Median Mean 3rd Qu. Max. 16.00 19.00 20.00 22.20 24.25 32.00 > summary(CA) Min. 1st Qu. Median Mean 3rd Qu. Max. 15.00 21.25 23.00 24.20 27.75 34.00 > sd(SA) [1] 5.452828 > sd(RL) [1] 0.5045834 > ## Prueba de normalidad gráfica > datos=as.matrix(SA) > par (mfrow =c(2,1)) > hist(SA,main="Histograma_de_Resistencia_campo") > qqnorm(SA) > qqline(SA,col=1) > datos=as.matrix(CA) > par (mfrow =c(2,1)) > hist(CA,main="Histograma_de_resistencia_labora") > qqnorm(CA) > qqline(CA,col=1) > ## Pruebas de normalidad analítica > shapiro.test(SA) ## Prueba de Shapiro Shapiro-Wilk normality test data: SA W = 0.85324, p-value = 0.06348 > shapiro.test(CA) Shapiro-Wilk normality test data: CA W = 0.9509, p-value = 0.6792 > library(nortest) > sf.test(SA) ## Prueba Shapiro-Francia ## Shapiro-Francia normality test data: SA W = 0.86074, p-value = 0.07063 > ad.test(SA) ## Prueba Anderson-Darling21 ## Anderson-Darling normality test data: SA A = 0.68812, p-value = 0.04943 > cvm.test(SA) ## Prueba Cramer-Von Mises ## Cramer-von Mises normality test data: SA W = 0.11892, p-value = 0.05157 > lillie.test(SA) ## Prueba Lilliefors test ## Lilliefors (Kolmogorov-Smirnov) normality test data: SA D = 0.2567, p-value = 0.06068 > pearson.test(SA) ## Prueba Pearson's chi-square ## Pearson chi-square normality test data: SA P = 4.4, p-value = 0.2214 > library(nortest) > sf.test(CA) ## Prueba Shapiro-Francia ## Shapiro-Francia normality test data: CA W = 0.94678, p-value = 0.5797 > ad.test(CA) ## Prueba Anderson-Darling21 ## Anderson-Darling normality test data: CA A = 0.33839, p-value = 0.4224 > cvm.test(CA) ## Prueba Cramer-Von Mises ## Cramer-von Mises normality test data: CA W = 0.066019, p-value = 0.2855 > lillie.test(CA) ## Prueba Lilliefors test ## Lilliefors (Kolmogorov-Smirnov) normality test data: CA D = 0.21416, p-value = 0.2163 > pearson.test(CA) ## Prueba Pearson's chi-square ## Pearson chi-square normality test data: CA P = 5.6, p-value = 0.1328 > #Prueba T para diferencia de medias > var.test(x=SA,y=CA,conf.level=0.95)$conf.int #IC para saber si las vari anzas son iguales o son diferentes [1] 0.2327313 3.7722550 attr(,"conf.level") [1] 0.95 > t.test(x=SA,y=CA,conf.level=0.95,var.equal=TRUE)$conf.int #IC para dife rencia de medias con varianzas iguales [1] -7.208705 3.208705 attr(,"conf.level") [1] 0.95 > t.test(x=SA,y=CA,conf.level=0.95,var.equal=FALSE)$conf.int #IC para dif erencia de medias con varianzas diferentes [1] -7.2091 3.2091 attr(,"conf.level") [1] 0.95 > #Pruebas de hipótesis para la diferencia de medias > var.test(x=SA,y=CA,conf.level=0.95) #PH para saber si las varianzas son iguales o son diferentes F test to compare two variances data: SA and CA F = 0.93697, num df = 9, denom df = 9, p-value = 0.9243 alternative hypothesis: true ratio of variances is not equal to 1 95 percent confidence interval: 0.2327313 3.7722550 sample estimates: ratio of variances 0.9369748 > t.test(x=SA,y=CA,conf.level=0.95,var.equal=TRUE) #PH para diferencia de medias con varianzas iguales Two Sample t-test data: SA and CA t = -0.8067, df = 18, p-value = 0.4304 alternative hypothesis: true difference in means is not equal to 0 95 percent confidence interval: -7.208705 3.208705 sample estimates: mean of x mean of y 22.2 24.2