Validación de instrumentos para medir conocimientos Lucero, Irene - Meza, Susana Departamento de Física - Facultad de Cs. Exactas y Naturales y Agrimensura - UNNE. Av. Libertad 5450 - (3400) Corrientes - Argentina. Tel./Fax: +54 (03783) 473931 int. 135 E-mail: sjmeza@exa.unne.edu.ar INTRODUCCION Y PLANTEO DEL PROBLEMA En el campo de la enseñanza de la Física, la Teoría Constructivista y el modelo del aprendizaje significativo de Ausubel, constituyen los marcos referenciales de mayor consenso actualmente. Así es, que los educadores buscan estrategias didácticas de enseñanza que pongan al alumno como protagonista, convirtiéndolo en actor de su propia formación. Aprender significados es realizar un proceso de construcción, cambiando las ideas que se tienen, interactuando éstas con la información nueva. Ese proceso de construcción implica ajustes, generalizaciones, discriminaciones y reestructuraciones de los conocimientos anteriores. "En la historia de los aprendizajes personales, como en la de las teorías científicas, se producen cada cierto tiempo revoluciones conceptuales que reorganizan y cambian radicalmente nuestra forma de entender un dominio dado de conocimiento" (Pozo Municio, 1998). Es por ello que una de las condiciones necesarias para que se produzcan aprendizajes significativos es tener en cuenta los conocimientos previos de los alumnos. Todo proceso de enseñanza aprendizaje lleva necesariamente aparejado un proceso de evaluación. Al decir evaluación surgen vocablos ligados a él, tales como apreciar, estimar, atribuir valor o juzgar. Al docente le interesa evaluar, tanto los conocimientos previos, como los conocimientos aprendidos, de los estudiantes. Generalmente, para poner en evidencia esos conocimientos se aplica algún test para indagar las preconcepciones o pruebas de lápiz y papel que contienen situaciones problemáticas, dado que la resolución independiente de problemas es una de las formas de poner en evidencia que los aprendizajes significativos. Es así que se hace necesario diseñar instrumentos adecuados para tal fin. Es sabido que, en cualquier tipo de investigación, la validez y confiabilidad de los instrumentos de recolección de datos son cuestiones fundamentales para la calidad de los resultados obtenidos y, en la mayoría de las veces, en las investigaciones en enseñanza desarrolladas en los propios contextos instruccionales, donde el accionar cotidiano se transforma en la fuente de datos por excelencia, no se hace un análisis tan riguroso de la consistencia interna de los instrumentos utilizados. En este trabajo se muestra un procedimiento de validación para instrumentos utilizados en enseñanza, uno que pretende medir conocimientos previos y otro de evaluación, elaborado como examen parcial de asignatura, destinado a medir el aprendizaje de los estudiantes, a través del rendimiento académico alcanzado. MARCO TEORICO La evaluación de aprendizajes implica reflexión y análisis sobre qué y cómo aprenden los estudiantes. La evaluación tiene distintos momentos, donde hay que tomar decisiones, pero es un proceso permanente de reflexión. Según este momento en el cual la evaluación tiene lugar, dentro de la secuencia didáctica, se puede hablar de evaluación diagnóstica o inicial, evaluación formativa o procesual y evaluación sumativa o final. Los test diagnósticos que se usan al iniciar una asignatura, actúan como instrumentos para realizar evaluación inicial. Los exámenes parciales, tal como están instaurados en la normativa de las instituciones universitarias en general, actúan como instancias de evaluación sumativa que miden el logro de aprendizajes de los alumnos, en un lapso determinado de tiempo, principalmente en el plano cognitivo. Con esta idea, las situaciones problemáticas de un parcial pueden cumplir el papel de instrumento de recolección de datos, si se está interesado en medir el aprendizaje de los estudiantes. Usar un test elaborado para diagnóstico inicial o cuestionario de examen como instrumento de recolección de datos lleva necesariamente a controlar la confiabilidad y validez de los mismos. Estas dos condiciones son cruciales, porque si las herramientas de recolección usadas son defectuosas, hay que olvidarse del éxito de la investigación, dado que el tratamiento estadístico no conseguirá el milagro de transformar datos de mala calidad en buenos resultados. La validez se refiere al grado en que el instrumento mide lo que se pretende medir. La confiabilidad se refiere a la confianza que se concede a los datos. Esta última está relacionada con la estabilidad o constancia, con la coherencia o consistencia interna y la precisión de las medidas que se obtienen con el instrumento. Un referente fundamental en procedimientos de validación de instrumentos para medir aprendizajes es el libro “Instrumento de Pesquisa em Ensino y Aprendizagem” de Moreira y Lang Silveira (l993). De acuerdo con ellos, la consistencia interna del instrumento se obtiene calculando los coeficientes de correlación Pearson ítem - total, para depurar el instrumento y estimando la fiabilidad a través del coeficiente alfa de Cronbach. Para poder validar el cuestionario es necesario aplicar como mínimo a una cantidad de individuos igual a 5 veces el número de ítemes a efectos de evitar obtener correlaciones ítem – total espuriamente altas, que pueden aparecer cuando el número de ítemes y el de individuos que responde la prueba, son semejantes. Los coeficientes de correlación de Pearson ítem- total, entre el puntaje de cada pregunta individual (variable independiente X) y el dado por el puntaje total (variable dependiente Y) indican la magnitud y dirección de la relación entre las variables y proporcionan una medida de la fuerza con que están relacionadas estas dos variables. Su valor puede oscilar entre + 1 y -1. Los ítemes cuyos coeficientes de correlación ítem - total arrojan valores menores a 0,35 deben ser desechados o reformulados (correlaciones a partir de 0,35 son estadísticamente significativas más allá del nivel del 1 %) ( Cohen – Manion, 1990), dado que una baja correlación entre el ítem y el puntaje total puede deberse a diversas causas, ya sea de mala redacción del ítem o que el mismo no sirve para medir lo que se desea medir. La depuración de los ítemes tiene como consecuencia aumentar el coeficiente de fiabilidad del instrumento. La confiabilidad del instrumento se estima a través del coeficiente α de Cronbach. La ventaja de este coeficiente reside en que requiere de una sola administración del instrumento de medición. Puede tomar valores entre 0 y 1, donde 0 significa nula confiabilidad y 1 representa la confiabilidad total. El coeficiente α de Cronbach puede ser calculado sobre la base de: a) la varianza de los ítemes o b) la matriz de correlación de los ítemes (correlación de Pearson entre todos los ítemes, todos contra todos, de a pares), con las siguientes fórmulas: a) α = K ∑ Vi K − 1 Vt donde: K es el número de ítemes, Vi es la varianza de cada ítem y Vt es la varianza del puntaje total. b) α= N pr 1 + pr ( N + 1) donde: N es el número de ítemes y pr es el promedio de las correlaciones entre ítemes, que se calcula incluyendo cada coeficiente de correlación una sola vez y excluyendo los coeficientes entre las mismas puntuaciones. El valor del coeficiente de Cronbach aumenta cuando las correlaciones ítem – total son altas, por ello, mejores correlaciones, dan mayor fiabilidad al instrumento. El coeficiente de fiabilidad es afectado por la heterogeneidad de los individuos que contestan la prueba; cuanto más heterogéneo es el grupo de encuestados, mayor es el coeficiente de fiabilidad. Así entonces, este coeficiente no es una propiedad exclusiva del instrumento en si, sino que es del instrumento para un determinado grupo de personas en una determinada situación (Lang Silveira, 1993). El coeficiente de fiabilidad representa la fracción de variabilidad observada entre los individuos que es verdadera, no atribuible a los errores de medida. El valor mínimo aceptable del coeficiente de fiabilidad depende de la utilización que se hará del instrumento. En los casos de puntajes generados por instrumentos para comparar grupos a través de diferencias de medias, se toma 0,7 como valor mínimo aceptable (Lang Silveira, 1993). METODOLOGIA La validación de los instrumentos se llevó a cabo mediante dos procedimientos complementarios: una evaluación cualitativa, y la determinación de la consistencia interna. La validación cualitativa fue concretada a través de la consulta a expertos: otros docentes especialistas actuaron como jueces externos que juzgaron críticamente los enunciados permitiendo realizar los ajustes necesarios. La consistencia interna se determinó de acuerdo con la bibliografía referenciada en el marco teórico. Se presentan aquí dos tipos de cuestionarios, uno para medir conocimientos previos que consta de ítemes de elección múltiple y de respuestas cortas y otro para medir aprendizajes de determinados contenidos, que consta de situaciones problemáticas con ítemes de resolución cuantitativa y cualitativa de justificación de repuestas, que fueron utilizados en investigaciones referidas al análisis de estrategias didácticas que favorezcan el aprendizaje significativo. Para evaluar cuantitativamente un cuestionario de situaciones problemáticas que involucran respuestas explicativas o diferentes soluciones algebraicas, se hace necesario especificar claramente los criterios para la corrección y asignación de puntajes. El test para determinar conocimientos previos respecto del tema elegido para el estudio: movimiento en un campo homogéneo fue confeccionado tomando como referencia tests tradicionales de indagación de preconcepciones y adaptaciones de los mismos realizadas por otros autores. Clement, (1982, 1983 a) citado en Pozo (1987); Driver y otros (1985) citado en Carretero (1997); McCloskey (1983 a, b) citado en Pozo (op cit)., (Lang Da Silveira y otros (1992). En el test se consideraron tres núcleos temáticos que conformaron tres subtests, cada uno de ellos construido por diversos ítemes, cada uno con su correspondiente puntaje, que genera a su vez un puntaje total particular para cada alumno. La división del test se realizó sobre la base que la respuesta a cada ítem es, desde el punto de vista teórico, el indicador del constructo a ser medido y de esta manera, al considerar en cada subtest un aspecto determinado, los ítemes que lo integran serían homogéneos. Los subtests denominados 1,2 y 3, están destinados respectivamente, a indagar sobre el manejo de magnitudes de uso corriente en Mecánica, establecer el conocimiento que los alumnos poseen sobre las posibles fuerzas en un cuerpo cuando éste se halla en distintas contextos, a indagar sobre los conocimientos respecto de la velocidad y aceleración en las situaciones presentadas en el subtest 2 y la tarea a realizar consiste en respuesta a cuestiones e identificación de distintos fenómenos, movimientos, trayectorias, fuerzas actuantes, velocidad, aceleración, etc. Los criterios empleados para la asignación de puntaje se indican a continuación: Núcleo temático. Criterios de puntuación 1 Magnitudes: se asigna un punto por cada respuesta correcta. 2 Fuerzas : Un punto por cada alternativa elegida que coincida con la concepción científica y un punto por cada fuerza actuante que es explicitada correctamente 3 Velocidad, aceleración: Un punto por cada alternativa elegida que coincida con la concepción científica vigente. TOTAL TEST N° ítemes 5 Puntaje total subtests Mínimo Máximo 0 15 9 0 18 5 0 5 19 0 38 El test fue aplicado a 141 alumnos y se calcularon las correlaciones item-total para cada uno de los subtest y para el total del test (subtest1+subtest2+subtest3), de manera similar se realizó el cálculo del coeficiente de Cronbach, obteniéndose para el total del test un valor de 0,797 considerado aceptable. Para el cuestionario referido a la medición de aprendizajes de los temas interferencia y polarización de la luz, aplicado en el 2° parcial de Física II (Optica y Sonido), los puntajes se asignaron de acuerdo a la lectura de cada una de las variables consideradas en el estudio, en cada uno de los ítemes, de acuerdo al valor nominal que asumían. El cuadro siguiente resume estos conceptos: Variable Valor Variables relevantes: habilidad del alumno para reconocer y seleccionar las Bien magnitudes físicas involucradas en la situación problemática dada Mal Solución: si el alumno da la solución correcta al problema planteado Bien Regular Mal Fundamentación: capacidad del alumno para fundamentar su estrategia de Bien solución o explicar la situación involucrando los conceptos físicos necesarios Regular Mal Puntaje 1 0 2 1 0 2 1 0 Estas variables seleccionadas no son otras que aquellas que dan cuenta de los pasos inelidubles para resolver un problemas y que, si el alumno los hace correctamente, estaría poniendo en evidencia el aprendizaje significativo de los contenidos involucrados en la situación dada. El cuestionario aplicado constaba de problemas que conformaban 7 ítemes y en cado uno de ellos se leyeron las tres variables. Fue necesario especificar claramente, para cada ítem, el criterio para considerar bien, regular o mal. No se dan aquí éstos, por razones de espacio. El "puntaje del ítem" se obtuvo sumando los puntajes de cada variable en el ítem considerado, de acuerdo al valor nominal que asumieron. Así el puntaje de cada ítem puede oscilar entre 0 y 5 puntos. El puntaje total de la prueba es el resultado de la suma de los puntajes totales de cada ítem. Como la prueba consta de 7 ítemes, el puntaje total varía entre 0 y 35 puntos. Este puntaje es la calificación total de la prueba y representa el valor de la variable rendimiento, constituyendo una medida del conocimiento que posee el estudiante, tal como lo expresa Lang Silveira (1993). La prueba fue aplicada a 57 estudiantes y con los puntaje hallados se calcularon, con un programa computacional de estadística bajo entorno Windows, los coeficientes de correlación de Pearson ítem- total y el coeficiente de fiabilidad alfa de Cronbach. Como todas las correlaciones superaron el valor de referencia 0,35, y el coeficiente Cronbach arrojó un valor superior a 0,7, la prueba fue considerada tal como se la construyó. CONSIDERACIONES FINALES De ninguna manera pretendemos reivindicar originalidad en cuanto al procedimiento llevado a cabo en este trabajo. Es nuestra intención contribuir a la literatura especializada presentando ejemplos del uso de instrumentos de recolección de datos y su proceso de validación, poner en evidencia que cuando se utilizan diversos tests o problemas para evaluar aprendizajes no es fácil lograr objetividad en las puntuaciones. Hay que ser conciente que según el ítem que se emplee, el criterio adoptado para la corrección puede ser más o menos riguroso y la claridad en los criterios de corrección es imprescindible. No obstante, si se realiza el análisis de la consistencia interna, se puede dar una confiabilidad mayor a los datos obtenidos. En cuanto al instrumento a emplear para la recolección de datos, cualquier actividad que se realice en el aula puede ser considerada un instrumento de recolección de datos, siempre y cuando haya sido sometida a un proceso de validación. Los problemas planteados como examen podrían funcionar como un instrumento de recolección de datos, sometiéndolo a un análisis de validez y confiabilidad cuidadoso que requiere de criterios claros y precisos para la corrección de las soluciones presentadas por los estudiantes. De acuerdo con la revisión realizada por Doran y otros (1994), se mantienen dos posiciones complementarias en el área de la investigación sobre instrumentos y técnicas para evaluar el aprendizaje de los estudiantes: ″Si un instrumento con aceptable validez existe y es aplicable en el dado contexto de investigación, entonces debería ser usado en preferencia al desarrollo de otro instrumento que debe ser él mismo sometido a un riguroso tratamiento de confiabilidad y validez" (Stever y otros, 1989, citados por Doran y otros, 1994) (p 393). Shymansky y Kyle (1988) (en Doran y otros) sostienen el desarrollo de nuevos instrumentos para responder a nuevos interrogantes. Y entre las dos anteriores posiciones puede considerarse otra alternativa como es la de diseñar un test con ítemes que pertenecen a instrumentos ya validados. Sin embargo, adhiriendo a la posición de Stever o a ésta última, es necesario tener presente que un test ya validado no implica obtener datos confiables en el nuevo contexto en el que se aplica. REFERENCIAS BIBLIOGRAFICAS AUSUBEL- NOVAK- HENNESIAN- 1991- Psicología educativa: un punto de vista cognoscitivo. (Edit. Trillás, México)- , citado en GANGOSO, ZULMA- l999- Resolución de problemas en Física y aprendizaje significativoPrimera parte: revisión de estudios y fundamentos. Revista de Enseñanza de la Física. Vol. 12. N° 2. P- 6 COHEN, L. – MANION, L. – 1990- Métodos de Investigación Educativa- (Edit. La Muralla, España) DORAN, R. L.; LAWRENZ, F. y HELGESON, S. - Reserach on assesment in science. In Gabel, D. L. 1994. Handbook of research on science teaching and learning (Macmillan). USA. HERNANDEZ SAMPIERI, R. - FERNANDEZ COLLADO, C.- BAPTISTA LUCIO, P- 1997- Metodología de la Investigación- (Edit. Mac Graw Hill- Colombia) LANG DA SILVEIRA, F.; MOREIRA, M. A. Y AXT, T1992- Estrutura interna de testes de conhecimento em física: um exemplo em mecanica. Enseñanza de las Ciencias. 10 (2). LUCERO, I. – 2002 - El análisis cualitativo en la resolución de problemas de Física y su influencia en el aprendizaje significativo. Tesis del Magister en Metodología de la Investigación Científica y Técnica. UNER. MEZA, Susana – 2001 – Análisis de actividades evaluativas como instrumento de aprendizaje significativo en Física. Tesis del Magister en Metodología de la Investigación Científica y Técnica. UNER MOREIRA, M.A. - LANG DA SILVEIRA, F. 1993- Instrumento de pesquisa em ensino y aprendizagem(EDIPUCERS- Porto Alegre- Brasil) POZO MUNICIO, JUAN I. 1998- Aprendices y maestros- La nueva cultura del aprendizaje. (Alianza Editorial, Madrid- España) SALKIND, NEIL J. 1997- Métodos de Investigación- (Prentice Hall- México) WAYNE, DANIEL- 1995- Estadística con aplicaciones a las Ciencias Sociales y a la Educación. (Edit. Mc Graw Hill, Colombia)