Resolución del ejercicio Adecuación de los datos. Lo primero que debemos hacer es comprobar que la muestra y el tipo de variables son adecuados para el uso del análisis factorial. Comprobaremos que la distribución de las puntuaciones no se aleja excesivamente de la normal y que los coeficientes de asimetría no superan el intervalo recomendado de ± 1. En nuestro ejemplo vemos que en ningún caso se supera el valor recomendado. Desv. típ. Estadístico Asimetría Estadístico Error típico V1 1,008 ,804 ,095 V2 1,093 -,223 ,095 V3 1,129 -,043 ,095 V4 1,046 ,340 ,095 V5 1,214 ,223 ,095 V6 1,091 ,458 ,095 V7 ,852 ,766 ,095 V8 1,220 ,193 ,095 V9 1,158 ,187 ,095 V11 ,927 ,502 ,095 V12 ,787 ,782 ,095 V13 1,021 ,210 ,095 V14 ,939 ,280 ,095 V10 1,046 ,294 ,095 Si además realizamos una inspección visual para comprobar el ajuste de las puntuaciones a la normal, un sencillo histograma nos muestra que en este caso la aproximación es bastante buena. Aquí se muestra como ejemplo el histograma del ítem 3. El output del programa nos informará por defecto sobre el test de esfericidad de Barlett y el KMO. Cuando lleguemos al output se comentarán en más profundidad. Configuración del análisis. A continuación, iniciaremos el programa Factor y procederemos a realizar el análisis factorial. Para empezar, indicaremos el archivo sobre el que vamos a trabajar. Para utilizar el programa, los datos deben estar en un documento formato texto plano (*.txt o *.dat), es decir, en un bloc de notas. Además, deben estar separados únicamente por un espacio entre columnas y deben ser eliminados, todos aquellos sujetos que dejaran un ítem sin responder, es decir, si en nuestra matriz de datos hay un espacio en blanco, el sujeto debe ser eliminado, sino el programa no leerá el archivo. Tras clicar “Read Data” se desplegará una pantalla como la que se muestra a continuación: Como puede observarse, el programa nos pide que especifiquemos el número de sujetos, el número de participantes y la ubicación del fichero (que podemos buscar en dentro de nuestro equipo clicando en “Browse”. Una vez aceptado, el programa nos mandará de nuevo a la pantalla inicial. El siguiente paso es decidir los parámetros del análisis que queremos llevar a cabo. Para ello, clicaremos en “Configure Analysis” Obteniendo la siguiente pantalla: Para nuestro ejemplo, elegiremos la matriz de correlaciones de Pearson para ser analizada, ya que los datos de los que disponemos están dispuestos en escala likert de 5 puntos, de modo que los trataremos como variables continuas. Como ya se ha comprobado inicialmente que los datos son adecuados para el análisis factorial (a falta de comprobar el test de Barlett y el KMO), elegiremos el procedimiento para determinar el número de factores. El programa nos ofrece 3 de las opciones más comúnmente utilizadas en la actualidad. Las tres son aceptables y validas, aunque no hay que olvidar que las utilizamos tan sólo como información útil, no como determinantes exactos del número de factores . En nuestro caso elegiremos la opción de “Parallel Análisis [PA]” por ser la más actual y extendida en uso. La siguiente elección es el número de factores que se van a extraer. Como aún no tenemos la recomendación del “Parallel Análisis”, nos basaremos en la teoría y pediremos al programa que nos estime los 2 factores que esperamos encontrar. El método de extracción elegido será Maximun Likelihood, por razones ya explicadas en el texto. Finalmente, debemos elegir el método de rotación, si es que deseamos que se lleve a cabo. En este caso, esperamos que los factores estén correlacionados de modo que elegiremos un método de rotación oblicuo. Elegiremos Oblimin directo, por las razones explicadas en el texto. Tras elegir el modelo factorial que se quiere poner a prueba, clicaremos en el botón ‘compute’ y tras unos instantes nos aparecerá en pantalla un nuevo documento de texto plano (bloc de notas) con el nombre de ‘output.txt’. Este documento queda automáticamente guardado en el mismo directorio donde se encuentran los datos, es decir, si el documento ‘ejpapaeles.dat’ lo hemos guardado en el escritorio, el archivo de resultados se guardará también en el escritorio. Es importante en este punto remarcar que si tras un primer análisis queremos realizar otro con algunos cambios en la configuración de este, los resultados se sobrescribirán en el documento ‘output’ que ya tenemos. Por ese motivo, si es de interés guardar ambos ‘outputs’ es importante modificar el nombre del primer documento que el programa nos ha dado, de manera que no se sobrescribirá, y los nuevos resultados aparecerán junto a los anteriores con el nombre de ‘otput.txt’. OUTPUT. Los primeros datos que miraremos serán los estadísticos de adecuación muestral. Los encontraremos justo debajo de la matriz de varianza/covarianza bajo el titulo de ‘adecuación de la matriz de correlación’. ADEQUACY OF THE CORRELATION MATRIX Determinant of the matrix = 0.001945374584819 Bartlett's statistic = 3498.8 (df = 91; P = 0.000010) Kaiser-Meyer-Olkin (KMO) test = 0.93410 (very good) Podemos ver que para nuestro ejemplo la muestra es más que adecuada, con un estadístico de Bartlett de 3498,8 con 91 grados de libertad que nos permite deducir que hay relación entre las variables e índice KMO muy bueno, tal como nos indica el propio programa. Tras confirmar que no se está factorizando ‘ruido’ y que la relación entre las variables es sustancial, antes de examinar el patrón de pesos factoriales, debemos confirmar que el modelo es adecuado y se ajusta bien a los datos. Primero miraremos la recomendación del análisis paralelo que encontramos tras la varianza explicada basada en autovalores (EXPLAINED VARIANCE BASED ON EIGENVALUES). En este caso, vemos que se aconseja extraer un solo factor (*Advised number of dimensions: 1). En todo caso no se debe olvidar que es una recomendación y que en la determinación del número de factores nos basaremos más en los índices de bondad de ajuste. Estos índices los encontraremos a continuación con el nombre de ‘GOODNESS OF FIT STATISTICS’. Los resultados de estos índices en nuestro ejemplo son: GOODNESS OF FIT STATISTICS Chi-Square with 64 degrees of freedom = 273.846 (P = 0.000010) Chi-Square for independence model with 91 degrees of freedom = 3498.810 Non-Normed Fit Index (NNFI; Tucker & Lewis) = 0.91 Comparative Fit Index (CFI) = 0.94 Goodness of Fit Index (GFI) = 0.99 Adjusted Goodness of Fit Index (AGFI) = 0.99 Nos fijaremos, tal como indica el texto, en el GFI y el NNFI de los índices que encontramos aquí. En este caso, GFI > 0,95 (0,99) y NNFI > 0,85 – 0.90 (0,90), Por tanto se podría decir que el ajuste es bastante bueno. . Si descendemos en el documento, encontramos la distribución de los residuales (DISTRIBUTION OF RESIDUALS). En este apartado se encuentra otro índice que hay que tener en cuenta en el ajuste del modelo, la raíz media cuadrática residual (Root Mean Square of Residuals). Vemos aquí que el índice RMCR es < 0,05 (0,0379) indicando de nuevo un buen ajuste. El mismo programa nos informa también del criterio de Kelley ( 1 N ) con el que comparar el índice RMCR, concretamente en este caso es de 0.0420 que al ser mayor que 0,0379 nos indica, de manera congruente con el criterio anterior, el buen ajuste. A pesar de que todos los indicadores muestran un buen ajuste hay que tener en cuenta que, en caso de sobrefactorizar, los índices mostrarían un ajuste superior a los que obtendríamos si el modelo fuera correcto con menos factores. Así, a mayor número de factores extraídos, mejor ajuste del modelo siendo ya excelente cuando se extraen tantos factores como ítems lo que no tiene ningún sentido. Si además tenemos en cuenta que el análisis paralelo recomienda extraer un solo factor, es recomendable reanalizar los datos pidiendo al programa que esta vez saque un solo factor. De este modo podemos comparar los índices de ajuste de ambos modelos eligiendo aquél que mejor se ajuste. Los autores consideran una mejora sustantiva del ajuste del modelo cuando el incremento del índice NNFI es de 0,01 o superior. Lo mismo vale para el índice GFI. En caso de que los incrementos no sean significativos pero tampoco lo sean los decrementos, es decir que el ajuste ni mejora ni empeora, se decidirá el modelo más adecuado según la teoría subyacente al test (según los ítems que cargan en cada factor y los que esperaríamos que lo hicieran, es decir, si los factores tienen significado) y según el principio de parsimonia, según el cual han de preferirse las teorías más simples a las más complejas. Antes de pasar a examinar el patrón de pesos factoriales del ejemplo, pondremos a prueba el modelo de un factor. Si no hemos cerrado el programa tras el primer análisis, no es necesario realizar otra vez todos los pasos anteriores, tan solo hay que pedir al programa, en la configuración del análisis, que obtenga 1 factor. Si lo hemos cerrado hay que repetir de nuevo todos los pasos (elegir el archivo de datos y configurar el análisis). En el output podemos ver que los índices de adecuación de la matriz de varianza/covarianza sigue siendo adecuada ya que la muestra no ha variado. Pasaremos de nuevo a mirar los índices de bondad de ajuste. En este caso podemos ver los siguientes datos: GOODNESS OF FIT STATISTICS Chi-Square with 77 degrees of freedom = 483.753 (P = 0.000010) Chi-Square for independence model with 91 degrees of freedom = 3543.958 Non-Normed Fit Index (NNFI; Tucker & Lewis) = 0.86 Comparative Fit Index (CFI) = 0.88 Goodness of Fit Index (GFI) = 0.99 Adjusted Goodness of Fit Index (AGFI) = 0.99 Para facilitar la comparación entre los modelos, en la tabla siguiente se encuentran los índices de bondad de ajuste de ambos y el incremento. Tabla de comparación de los modelos. Modelo 2 Factores 1 Factor Δ índice NNFI GFI RMCR 0,91 0,99 0,0379 0,86 0,99 0.0550 0,05 0 -0,0171 La tabla nos muestra que el incremento en los índices de bondad de ajuste no es suficiente para justificar la superioridad de un modelo sobre otro. Pasaremos a continuación a comentar otro de los criterios que podemos utilizar para decidir el modelo más adecuado. Como se ha comentado anteriormente, otro indicador (no estadístico) que nos puede ayudar a decidir el modelo más adecuado para nuestros datos. Los patrones de ambos modelos se presentan en la siguiente tabla: Pesos factoriales de ambos modelos. Modelo de 1 Factor Modelo de 2 Factores Ítem F1 F1 F2 1 0,662 0,178 0,548 2 0,561 0,017 0,572 3 0,673 -0,124 0,837 4 0,559 0,173 0,424 0,501 0,214 5 0,328 6 0,675 -0,023 0,793 7 0,578 0,288 0,333 8 0,473 -0,001 0,539 9 0,697 0,014 0,782 10 0,755 -0,027 0,825 11 0,701 0,419 0,330 12 0,697 0,214 0,524 13 0,710 0,066 0,688 0,748 0,555 0,239 14 *En negrita se han señalado las cargas factoriales del modelo de dos factores con pesos superiores a 0,30. En el modelo de 1 factor, podemos ver que todos los ítems cargan de forma sustantiva en el factor (con valores superiores a 0,30) lo que refuerza la hipótesis de un solo factor subyacente a los 14 ítems. En el modelo de 2 factores vemos que solo hay un ítem factorialmente complejo (con cargas sustantivas en ambos factores –ítem 11 –). Los demás ítems cargan claramente al factor que corresponde según la teoría. Así pues, no podemos descartar ninguno de los dos modelos en función de los patrones factoriales. Llegados a este punto, solo nos queda basarnos en el principio de parsimonia para elegir el modelo más adecuado. En este caso, la opción más sencilla (menos compleja) es el modelo de un factor ya que implica menos supuestos. Así pues, en opinión de los autores, el modelo del elección sería el modelo de un factor, aunque no es completamente descartable ninguno de los dos.