Alcances e inconsistencias del Indice Sintetico de Calidad Educativa (ISCE), diseñado y aplicado por el Ministerio de Educación de Colombia en el año 2015 Fundación IQ Matrix - Iniciativas para la sociedad del conocimiento Working Paper Serie: Educación Marco Fidel Zambrano M. Bogotá – Colombia - Abril de 2015 Correo electrónico: marcofza@gmail.com 1 Alcances e inconsistencias del Indice Sintetico de Calidad Educativa (ISCE), diseñado y aplicado por el M inisterio de Educación de Colom bia en el año 2015 Scope and inconsistencies Synthetic Index of Educational Quality ( ISCE ) , designed and im plem ented by the M inistry of Education of Colom bia in 2015 Resumen Generar herramientas de medición en el sector educativo es una prioridad y un requisito para desarrollar políticas educativas con la capacidad de transformar tanto la educación como la sociedad. Aún así, se debe ser en extremo cuidadoso en lo relacionado a la calidad de dichas mediciones. Las mediciones correctas tienen la capacidad de favorecer el cambio educativo bajo parámetros racionales y democráticos. Asunto contrario cuando por diversas circunstancias las mediciones presentan importantes inconsistencias y sesgos aumentando los niveles de confusión y generando una pérdida crítica de recursos y esfuerzos. El presente documento de discusión se da a la tarea de analizar el Índice Sintético de Calidad Educativa (ISCE) recientemente generado por el Ministerio de Educación (MEN) de Colombia, el cual muestra importantes limitaciones en cuanto a su conceptualización y alcances. Palabras claves: educación, calidad, rankings, mediciones, principios de Berlín, metodologías. Abstract The creation of measuring tools in the education sector is a priority and a requirement to develop educational policies with the ability to transform both education and society. Still, one must be extremely careful in regard to the quality of such measurements. The correct measurements have the ability to promote educational change under rational and democratic parameters. Subject otherwise when for various reasons the measurements show significant inconsistencies and biases increasing levels of confusion and generating a critical loss of resources and efforts. This working paper is given the task of analyzing the Synthetic Index of Educational Quality ( ISCE ) recently created by the Ministry of Education ( MEN) of Colombia , which shows significant limitations in their conceptualization and scope. Key words: education, quality , rankings , measurements , Berlin principles , methodologies . 2 M arco Fidel Zam brano M urillo Sociólogo de la Universidad Nacional de Colombia. Especializado en medios de comunicación de la Universidad de los Andes. Magister en sociología de la Universidad Nacional de Colombia. Experto en calidad educativa. Experiencia internacional en medios de comunicación y nuevas tecnologías aplicados a la educación. Experiencia en formación de redes sociales y profesor universitario a nivel universitario (pregrado y posgrado) y población adulta. Asesor de Naciones Unidas, Presidencia de la República, Servicio Nacional de Aprendizaje (SENA), Despacho Ministro, Ministerio de Educación. Co-editor revista Vía Libre. Autor de diversas publicaciones en el tema educativo. Ganador del tercer premio (1.993), Primer Premio Nacional de Ensayo: “Cultura y Sociedad en Colombia”, Instituto Colombiano de Cultura (COLCULTURA). Ganador premio a la excelencia estudiantil (1.991), Galardón al mejor trabajo de grado estudiantil, relación Universidad – Cultura, Federación Nacional de Cafeteros - Universidad Nacional de Colombia. 3 Alcances e inconsistencias del Indice Sintetico de Calidad Educativa (ISCE), diseñado y aplicado por el Ministerio de Educación de Colombia en el año 2015 Contenido I. Antecedentes. II. Resultados de la aplicación del ISCE. III. La im portancia de los rankings educativos. IV. Los principios de Berlín. V. Discusión. VI. Conclusiones. VII. Referencias. 4 I. 1.1. Antecedentes. El 25 de Marzo de 2015, el Ministerio de Educación Nacional presentó el Índice Sintético de Calidad Educativa (ISCE) como un nuevo instrumento de medición de la calidad educativa en el país. 1.2. Para la Construcción del ISCE, el MEN manifiesta que se revisaron diferentes casos de índices de calidad educativa, tales como: i) el Índice de Desarrollo de Educación Básica (IDEB) de Brasil, ii) el Sistema Nacional de Evaluación del Desempeño (SNIED) de Chile, iii) el Sistema de Medición de la Calidad de las Instituciones Educativas de la ciudad de Medellín –SIMCIE, iv) el Indicador Multidimensional de la Calidad de la Educación –IMCE, Índice básico de calidad de la Secretaria de Educación de Bogotá, y v) el Índice de Derecho a la Educación. En concreto se menciona que el ISCE fue construido por el Instituto Colombiano para la Evaluación de la Educación (ICFES) en desarrollo de su responsabilidad misional. 1.3. En desarrollo de este proceso se seleccionaron 4 componentes del ISCE: i) desempeño, ii) progreso, iii) eficiencia y iv) ambiente escolar. Estos componentes recogen el mejoramiento continuo, y aquellos aspectos escolares que el MEN considera relevantes para un adecuado desempeño estudiantil y de los cuales se cuenta con suficiente información. 1.4. El MEN manifiesta que se apoyó principalmente en el Índice de Desarrollo de la Educación Básica (IDEB), creado en el 2007 por el Ministerio de Educación de Brasil, mediante el cual se mide cada dos años el desempeño y progreso de cada escuela de dicho país, en este índice al igual que en el caso del Índice Sintético de la Calidad Educativa (ICSE), se utilizan medidas de calidad y eficiencia basadas en pruebas de conocimiento estandarizadas de los alumnos, el cálculo de las tasas aprobación, desaprobación y deserción en cada escuela. Además del IDEB la construcción del ISCE recoge la experiencia del Estado de Minas Gerais, en donde la aplicación del Índice da lugar a una estrategia integrada de formación docente, producción de material de apoyo pedagógico y una acción de seguimiento constante en el objetivo de cumplir unas metas nacionales, territoriales y por establecimiento educativo. 1.5. El MEN menciona que los asesores o expertos que acompañaron el proceso de 5 construcción e implementación del índice, son principalmente la Sra. Ana Lucia Gazzola, ex secretaria de educación del estado brasilero de Minas Gerais, Estado de cuyo modelo de evaluación se tomó la inspiración para la implementación de acciones en torno al ISCE, siendo un aval de su aporte los grandes avances que el estado de Minas Gerais muestra en términos de educación; igual se mencionan acercamientos con el INEP, entidad que en el Brasil cumple las funciones que en nuestro país cumple el ICFES, esto en virtud a que fue desde dicha entidad que se dio la construcción del INEB, el cual tal y como se dijo anteriormente, fue el punto de partida para la construcción del ISCE. 1.6. El Índice Sintético de Calidad Educativa otorga una calificación en una escala de 1 a 10 (siendo 10 la mayor nota), por cada nivel educativo, es decir básica primaria (de grado los 1o a 5o) , básica secundaria (de los grados 6o a 9o) y media (grados 10o y 11o). La calificación corresponde a la suma de los cuatro componentes que hacen parte de él. 1.7. Los componentes que hacen parte del ISCE, son: 1.7.1. Progreso: Este componente busca medir qué tanto ha mejorado el establecimiento educativo en relación con los resultados que obtuvo el año anterior. Es decir, se trata de una comparación consigo mismo, independiente del promedio o desempeño obtenido. Considera el cambio en el porcentaje de estudiantes ubicados en el quintil inferior de la prueba Saber 11o o en el nivel de desempeño insuficiente en Saber 3o, 5o y 9o. Esto quiere decir que a medida que el porcentaje de estudiantes en el quintil 1 y en el nivel de desempeño insuficiente disminuye, la excelencia aumenta. Este componente da un máximo de 4 puntos de los 10 posibles que un establecimiento educativo puede obtener en el ISCE. 1.7.2. Desem peño: Con este componente se busca incentivar mejores resultados promedios en las pruebas SABER. La calificación de este componente depende directamente del puntaje promedio del establecimiento educativo en los grados y áreas tenidos en cuenta en cada ciclo escolar. Se tienen en cuenta los resultados de las pruebas Saber en Matemáticas y Lenguaje. Entre mayor sea el puntaje promedio obtenido por el establecimiento educativo en estas pruebas, mayor será la calificación obtenida en Desempeño, dando un máximo de 4 puntos de los 10 posibles que un establecimiento educativo puede obtener en el ISCE. 6 1.7.3. Eficiencia: mediante este componente se busca balancear el puntaje obtenido en Desempeño, pues si bien tenemos como propósito obtener mejores puntajes promedio, también debemos buscar que la mayoría de los estudiantes alcancen los logros propuestos para cada grado escolar. El valor asignado en este componente corresponde a la tasa de aprobación, es decir al número de estudiantes que aprueban el año y son promovidos al siguiente grado. Para primaria y secundaria el valor de eficiencia corresponde al valor reportado por cada colegio en SIMAT sobre su tasa de aprobación (es decir daría máximo 1 punto en el ISCE). Para el caso de la Media, el valor de este componente se duplica, la tasa de aprobación por dos ( dando máximo 2 puntos en el ISCE), dado que en la educación no se cuenta con datos de ambiente escolar. Por lo tanto, para todos los colegios el componente ambiente escolar en la media aparecerá N.R. se debe tener presente que los establecimientos educativos que no reportan tasa de aprobación, tendrán un “cero” en el aporte de este componente al Índice. 1.7.4. Ambiente escolar: Este componente busca caracterizar el ambiente escolar en el que se desarrollan las clases recibidas por los estudiantes. Este componente se divide en dos criterios: Seguimiento al aprendizaje de los estudiantes en el aula y el segundo, al ambiente de aula. El valor de ambiente escolar resulta de hacer análisis factoriales (que el MEN no hace explícitos) a la encuesta de factores asociados que aplica el ICFES junto con las pruebas SABER de grados 5o y 9o, para identificar que ocurre con los dos criterios que lo componen en los establecimientos educativos, esto con base en las respuestas que los estudiantes dan en estas encuestas. Los establecimientos educativos que no entreguen los cuadernillos de la encuesta de factores asociados, tendrán un “cero” en el aporte de este componente al Índice, componente que máximo daría 1 punto de los 10 posibles que un establecimiento educativo puede obtener en el ISCE. 1.8. Con relación al ranking de establecimientos educativos como producto del ISCE, el MEN menciona que su propósito no es hacer rankings sino ofrecer insumos objetivos de análisis para que las instituciones educativas puedan mejorar la calidad de la educación, sin embargo, es del todo factible, según su criterio, el generar un ranking de establecimientos educativos con base en los resultados que 7 se tengan a la luz de los diferentes componente del ISCE. En otras palabras, no es un Ranking, pero es el insumo para un Ranking. 1.9. En criterio del MEN la aplicación del índice busca poner en práctica los principios de transparencia y rendición de cuentas de tal manera que todos los miembros de la comunidad educativa y la opinión pública en general puedan tener acceso a la información de cómo se encuentran los establecimientos educativos en términos de calidad educativa. II. 2.1. Resultados de la aplicación del ISCE. Los valores agregados que reporta el MEN como resultado de la aplicación del ISCE son: 2.2. Unidad de Índice de Básica Índice de Básica Índice de Educación análisis Primaria Secundaria Media Bogotá DC 6,04 6,03 6,84 Colombia 5,13 4,89 5,52 A nivel territorial la clasificación arroja a municipios como Zipaquirá (1), Tunja (2), Mosquera (3) y Chía (4), por encima de ciudades como Bogotá (10), Cundinamarca (18) y Medellín (41). 2.3. En instituciones privadas la clasificación arroja 1 en los primeros lugares a instituciones como los Nogales, Gimnasio Colombo-Británico y Liceo Navarra de Bogotá. En cuarto lugar el Colegio de la Compañía de María de Medellín, seguido por el Instituto Alberto Merani de la Capital, el Montessori de Medellín y el Anglo Americano, Gimnasio Vermont y Santa Francisca Romana de Bogotá. 2.4. En Instituciones públicas la clasificación arroja en los primeros lugares a instituciones como el Liceo Integrado de Bachillerato-Universidad de Nariño, IE San Vicente (Valle del Cauca), Colegio Claretiano (Huila), Colegio Distrital Marie 1 Se replican los resultados sólo a modo de referencia, de ningún modo se pretende validar sus resultados. 8 Poussepin (Atlantico), Colegio Santo Ángel (Norte de Santander) y Colegio Sagrado Corazón de Jesús (Norte de santander). Estos resultados fueron publicados por el MEN sin realizar procesos previos de validación para corroborar la consistencia de los resultados. Las propias instituciones, ciudades y municipios se enteraron por los medios de comunicación de los resultados de la medición En otras palabras, el ranking publicado no ha sido validado en la clasificación generada. A la fecha se encuentran ausentes por lo menos tres etapas más para avanzar en la validación: i) Adelantar el trabajo teórico que no se ha adelantado, ii) integrar a las comunidades académicas y educativas en la discusión de la medición, iii) ir a las instituciones y entidades territoriales que aparecieron liderando en el ranking, y generar nuevas mediciones en terreno iv) validar en dichas instituciones los indicadores medidos e identificar elementos adicionales no tenidos en cuenta en la medición del ranking v) Corregir los pesos iniciales asignados a los indicadores, integrar factores de corrección en la formula original e integrar nuevos indicadores. Nos encontramos entonces ante una clasificación que se encuentra en una etapa preliminar pero que fue publicada como una medición terminada. Una suerte de experimento con la educación del país a la vista de todos. Una labor seria de medición se puede tomar algunos años. III. La importancia de los ranking educativos. Los rankings educativos han generado un debate global relacionado con su validez, intencionalidad y alcances. Sin embargo, la literatura existente converge en algunos elementos: i) Son útiles para evaluar el papel que cumplen las instituciones y organizaciones en la sociedad, ii) despliega una función implicita de acreditación, iii) proporcionan una respuesta concreta a la necesidad de información de los usuarios, iv) mejoran la toma de decisiones de estudiantes y padres de familia con relación la selección de las instituciones educativas, v) pueden servir de herramienta para investigaciones y vi) contribuyen a la construcción de reputación de las organizaciones educativas. Sin embargo, igual se reportan efectos negativos como: i) distorsionar e incluso pretender sustituir la realidad, ii) funcionar como instrumento de manipulación por parte de aquellos que diseñan y aplican el ranking, iii) destruir la diversidad de las instituciones educativas, las cuales terminan ajustándose a los parámetros del ranking para evitarse problemas así sea claramente una medición equivocada, iv) invisibilizar y a la larga destruir todos aquellos proyectos, iniciativas y concepciones de la educación que no se encuentren 9 dentro del radar conceptual e institucional generado por el ranking. Al final se corre un gran riesgo que este tipo de mediciones que jerarquizan a las instituciones, se transformen en una suerte de máquina de guerra burocrática que incrementa de manera desmedida la intromisión del Estado en las instituciones educativas, empobreciendo la educación en función de las concepciones educativas de unos funcionarios que al final de los procesos no responden por los daños causados. Esta situación es más probable desde rankings construídos desde el Estado sin procesos democráticos de construcción y sin referentes conceptuales realmente válidos. Un balance global en cualquier caso establece que es preferible contar con mediciones a no contar con ellas. El problema se encuentra en cuáles son las mediciones más apropiadas para generar procesos de respeto a las instituciones educativas, valoración integral de sus esfuerzos, inclusión de diversas perspectivas teóricas e integración de la comunidad educativa en su proceso de construcción. De estas decisiones depende si los rankings son parte de la solución o parte del problema. IV. Los principios de Berlín. Las discusiones contemporáneas indican de manera reiterada que un ranking debe cumplir de manera clara con criterios de trasparencia, relevancia y estrategias de validación de los datos. Para limitar los abusos y los impactos adversos de los rankings la comunidad europea se dio a la tarea de establecer unos principios para garantizar niveles aceptables de responsabilidad en el proceso de construcción y publicación de rankings. A estos principios se los ha denominado Principios de Berlín, elaborados por parte del International Ranking Expert Group (2006). Si bien estos principios son pensados para la educación superior, son de manera clara un referente importante para evaluar la pertinencia y alcance de cualquier ranking educativo. El desarrollo de los principios de Berlín (PB) adaptados a los propósitos del presente documento de trabajo arrojan el siguiente resultado inicial: 1. Los rankings no deben convertirse en referentes únicos y absolutistas de la calidad educativa. Las clasificaciones generadas por los rankings deben ser sólo un instrumento entre muchos otros enfoques, para la evaluación de la educación. Las clasificaciones pueden proporcionar información comparativa, encaminada a mejorar la comprensión de la educación, pero no debe ser el principal método para evaluar la calidad educativa. 10 2. Debe existir claridad acerca del propósito y los grupos poblacionales objetivo del ranking. Los indicadores diseñados para cumplir con un objetivo en particular para una población especifica, pueden ser contraproducentes para otros propósitos y destinatarios. Sobre este aspecto llama la atención como el ISCE se encuentra aparentemente dirigido a las instituciones educativas, pero el proceso de comunicación estuvo dirigido de manera general e indistinta a toda la sociedad, con lo cual ya se originaron procesos de señalamiento y estigmatización de las instituciones 3. El ranking debe reconocer la diversidad en lo referente a las diferentes misiones y objetivos de las instituciones. Es muy diferente la condición de una institución en situaciones sociales agudas de marginalidad y violencia a una institución que si bien es también pública, adelanta su labor en lugares urbanos de estratos 3 y 4. Estas diferencias deben ser registradas y medidas por el algoritmo estadístico que soporta el ranking. 4. Es necesario tener claridad de las fuentes de información utilizadas y buscar combinar diferentes fuentes y perspectivas con el objeto de obtener una visión más completa de cada institución. En este sentido es importante obtener información cruzada que integre a los propios maestros y a los padres de familia. El ISCE se centra en el tema del desempeño académico bajo una concepción productivista de la educación y reduce la calidad a un problema de notas y promociones. 5. Se debe buscar un balance que integre las diferentes concepciones de calidad a fin de evitar la situación en donde se impone una visión de calidad unidireccional y arbitraria. 6. Se debe ser transparente en cuanto a la metodología utilizada para la creación de la clasificación. Esta transparencia debe incluir justificación de la selección de indicadores, origen y manipulación de datos y procesos de ajuste estadístico. 7. La selección de los indicadores debe ser en función de su pertinencia y validez. Esta selección debe basarse en el reconocimiento de la capacidad de cada indicador para representar la función de calidad que se pretende desarrollar. Los indicadores no deben ser seleccionados por la disponibilidad de información 11 existente. Se debe ser claro acerca de las razones y bases teóricas que llevaron a seleccionar cada indicador que estructura el proceso de clasificación. 8. Se debe medir variables de entrada y de salida. No es posible valorar solamente los resultados sin una valoración precisa de qué insumos recibe esa institución educativa para cumplir con su misión. No es posible medir resultados en química de una manera objetiva, si no se tiene en cuenta que esa institución no cuenta con laboratorios. Es esta una de las fallas más protuberantes del ISCE al suponer que todas las instituciones se encuentran en igualdad de condiciones para cumplir con las metas educativas del gobierno. Se hace integrar un factor compuesto que integre estado de la infraestructura, nivel de la capacitación docente, motivación de los profesores, corrupción, estilos de liderazgo de los directivos. El mundo real en el cual se encuentran las instituciones educativas. 9. Se debe informar al público si los cambios en el ranking a lo largo del tiempo se deben a variaciones en el desempeño de las instituciones, cambios en los pesos asignados a los factores o cambios en la metodología. 10. Se deben observar normas éticas y recomendaciones de buenas prácticas en los procesos de obtención y utilización de datos. 11. En lo posible se deben usar datos auditados, verificables y aceptados por las instituciones. 12. Se debe usar procedimientos científicos para la recolección de datos. 13. Se deben aplicar medidas de garantía de calidad para el propio diseño y aplicación del Ranking. 14. Se deben establecer medidas de garantía de la credibilidad de los rankings, tales como acompañamiento de órganos asesores internacionales, entidades independientes e instituciones internacionales. Este acompañamiento debe ser real y el compromiso de dichas instancias y entidades debe ser público, de ninguna manera secreto o sin posibilidad de comprobación. 15. Se debe garantizar en la población objetivo una clara comprensión de todos los factores que se utilizaron para desarrollar el ranking. Igualmente se deben crear 12 los espacios para que los usuarios de la clasificación ponderen los indicadores usados. 16. La clasificación debe realizarse de manera que se eliminen o reduzcan los errores en los datos primarios y las instituciones educativas puedan advertir los errores y fallas, las cuales deben igualmente ser publicadas. Estos principios igual han generado un debate que es crecientemente más intenso en el espacio común europeo y en menor medida en los Estados Unidos. El gran desorden de mediciones y acreditaciones en este último país es hoy un importante factor de confusión en el momento de evaluar sus instituciones educativas. V. Discusión. EL Índice Sintético de Calidad Educativa generado por el Ministerio de Educación de Colombia tiene la virtud de recordar la necesidad de establecer mediciones nacionales como un instrumento importante dentro de la política educativa. Pero esta intencionalidad exige el máximo nivel de profesionalismo, democracia, transparencia y competencia. El país viene de ocho años de oscuridad en su política educativa en donde bajo las banderas neoliberales se arrasó con la comunidad educativa del país, originando un grave retraso con relación a metas estratégicas en el propósito de construir un nuevo modelo de desarrollo basado en conceptos como el de sociedad del conocimiento. Parece que los vientos para la educación no cambian en Colombia y que los procesos de exclusión, marginalidad y empobrecimiento desde la propia educación es una realidad dificilmente negable. Las condiciones en las cuales ha surgido el ISCE parece confirmar esta afirmación estructural con relación a la situación educativa del país. Un ejercicio análitico sobre el Índicador permite afirmar que: 5.1. El ISCE diseñado y aplicado por el MEN no cumple de manera clara varios parámetros de los principios de Berlín. i) se muestra como el principal parámetro de evaluación, ii) no ha sido claro con los grupos poblacionales hacía los cuáles va dirigido (se supone que va dirigido a las instituciones educativas, pero se le entregó a todo el país en un ejercicio publicitario que tal vez buscaba incrementar la popularidad del MEN), iii) desconoce la diversidad y condiciones particulares de las instituciones educativas, iv) no integra diferentes concepciones de calidad, es más un indicador de productividad académica con la intención de reforzar lógicas fabriles al interior de la escuela, v) aparece como una medición de calidad 13 unidireccional y arbitraria, vi) presenta problemas con la selección de los indicadores, vii) no registra las deficiencias y carencias de las instituciones como un insumo de entrada y viii) no presenta acompañamiento de instituciones independientes del gobierno y acreditadas por instancias internacionales, lo cual deja pendiente el tema de la transparencia. 5.2. Teniendo en cuenta que el MEN afirma que la clasificación no es un ranking pero que puede ser insumo para un ranking es necesario establecer que: i) un ranking ordena de mejor a peor según un conjunto ponderado de indicadores de desempeño y que una ii) clasificación agrupa instituciones por tipos homogéneos o por semejanzas a la luz de ciertos atributos significativos. Con la retórica del MEN de negar que el ranking, es efectivamente un ranking, se termina en una situación en donde se publica un ranking negando su condición de ranking pero que tampoco cumple con las condiciones de una clasificación. Si se acepta que es un ranking, se evidencian serios problemas metodológicos y si es una clasificación, la situación es aún más dificil. 5.3. Es incomprensible como en un tema tan delicado que afecta la percepción del sistema educativo en Colombia y que es sensible para la reputación de sus instituciones educativas, no exista un solo centro de investigación, universidad ni expertos nacionales que hayan sido convocado para su conceptualización, diseño y aplicación. Esta situación origina un serio problema de validez, consistencia y transparencia. A esta problemática se añade el problema del tiempo. Parece que el ISCE se elaboró de manera express en pocas semanas, cuando en los países desarrollados el tiempo de diseño y validación para los rankings se toma incluso años (ver la experiencia de Multi-Rank en Europa). 5.4. Los referentes institucionales para la elaboración del ranking son esencialmente regionales, tomándo a Brasil como referente. Los referentes son de países subdesarrollados para otro país subdesarrrollado. Para solamente citar un ejemplo de la inconsistencia de tomar estas experiencias como referente, en una medición donde se integran mediciones educativas globales, denominada Índice Global de habilidades cognitivas y logros educacionales, elaborada por la Unidad de Inteligencia de The Economist y Pearson, Brasil ocupa el puesto 38 y Colombia el puesto 36 entre 40 países. (http://thelearningcurve.pearson.com/index/index- ranking). No existe ninguna justificación razonable para seleccionar a Brasil como referente de mediciones educativas. 5.5. Con relación a Mina de Gerais, de tiempo atrás se viene referenciando una experiencia que no es tan significativa como se quiere hacer parecer. Mina de Gerais es un Estado subdesarrollado dentro de un país subdesarrollado el cual se 14 encuentra a su vez dentro de un continente subdesarrollado. Si bien pueden realizar sus esfuerzos respectivos, nada de especial importancia sucede allí para ser replicado. Si bien se reportan algunas experiencias interesantes en cuanto a políticas públicas en educación, no se tienen evidencias de que en este lugar se haya desarrollado un indicador de calidad educativa que soportara la construcción de un ranking de calidad en educación. Si se tomará un referente serio, debería estar por los lados de los nuevos paises industrializados (NPI). Tal vez sea el criterio de la facilidad el que nos lleve a las mismas coordenadas de manera reiterada. 5.6. No es claro que los atributos seleccionados, satisfagan los criterios de evaluación de la calidad educativa como igual no es claro que la distribución de clase resultante refleje la distribución de clase original (Ruiz, Ruiz-Aguliar y Riquelme, 2001). En otras palabras, no existen evidencias teóricas ni procesos estadisticos a la vista que permitan afirmar que los atributos seleccionados reflejen de manera óptima una función de calidad educativa como tampoco que esa función se corresponda con la realidad. Para que esto fuera posible sería necesario como primer paso hacer explicito y transparente los criterios y las metodologias con las cuales se construyó el algoritmo de selección de atributos que permitan un grado alto de certeza que esos atributos reflejan realmente una función de calidad educativa. Un elemento problemático es que se toman datos ya existentes como atributos relevantes lo que induce un serio problema de validez de la totalidad del instrumento de medición. Se podría pensar que se tomaron estos atributos porqué existían datos previos más que por su relevancia para el proceso de medición de la calidad educativa. Esto sin abordar el problema de la validez de las mediciones previas y de sus resultados. 5.7. Con la información proporcionada, el ranking no posee una base teórica que lo respalde. No se presentan referentes teóricos que permitan integrar esos factores como la expresión de una configuración de calidad educativa, como tampoco que respalden los pesos que fueron asignados a esos factores. No se evidencian procesos de realización de análisis multivariante como estrategia para establecer los factores y sus correspondientes pesos. Se observa al contrario una estrategia para establecer factores y pesos a priori, lo cual le resta de manera sería validez al intento de clasificación de las instituciones educativas. 5.8. No se evidencian procesos de normalización que permitan mayor claridad en el proceso de medición. Al comparar ciudades de diferente tamaño, instituciones 15 educativas de diferente tamaño y salones de clase de diferente tamaño, las mediciones necesariamente tienden a generar un sesgo que debe ser debidamente corregido. Por esta razón los resultados nos llevan a Zipaquirá, Tunja y Mosquera como un descubrimiento importante. Con la información disponible se puede asegurar que nada excepcional sucede allí y que el hallazgo se encuentra más en el instrumento de medición que en la realidad. Esta debilidad teórica y este problema metodológico genera expectativas en estos municipios y afecta innecesariamente la reputación de las instituciones educativas que han quedado en los últimos lugares del ranking. Si tomamos como criterio válido que una buena medición de clasificación es aquella que coloca en las primeras posiciones los mejores atributos para clasificar el conjunto de datos, es altamente problemático que las primeras posiciones en la medición tengan serios indicios de ser altamente inconsistentes, ya que no se evidencia ningún esfuerzo ni intencionalidad claramente especial de políticas públicas en estos municipios. Las revoluciones silenciosas o los milagros educativos tienen escasa probabilidad de que sucedan de manera expontánea. 5.9. Los resultados no son significativos en cuanto no se sabe con exactitud cuales son los factores que los producen. A lo sumo es una hipotesis de trabajo que no tendría que ser publicada como una medición gubernamental y oficial de calidad educativa. 5.10. Finalmente, no se evidencian mediciones de la exactitud de la clasificación generada, la consistencia de la información producida por el ranking, como tampoco el grado de exactitud del algoritmo utilizado para realizar la clasificación. Es critica la falta de transparencia en este tema. VI. 6.1. Conclusiones. Generar mediciones en la educación es un aspecto positivo, sin dudas. El problema es cuando las mediciones se adelantan sin los trabajos teóricos previos y sin un criterio democrático que posibilite la participación integral de investigadores, universidades y centros de investigación. 6.2. observando a lo lejos, el ISCE es una medida foranea que ha sido construida de manera unilateral por unos funcionarios que han tomado unas experiencias internacionales que no son relevantes. Un ejercicio positivo si, pero apenas como ejercicio, no como un indicador confiable. 16 6.3. Tal y como se presenta, el ISCE es una medida de productividad academica inscrito dentro de una concepción fabril de la escuela, más no un indicador de calidad educativa. 6.4. Debido a la multitud de problemas enumerados, el MEN debería retirar el ISCE como una medida oficial de la calidad educativa y abrir el espacio para realizar las investigaciones y analisis corrrspondientes, buscando cumplir por lo menos con los principios de Berlín. El ejercicio hasta ahora realizado sólo puede ser considerado como una hipotesis de trabajo que no tiene por que generar falsas expectativas y afectar innecesariamente la reputación de las instituciones educativas. VII. • Referencias. BRUGGEMANN, Rainer; PATIL, Ganapati P. (2011) Ranking and Prioritization for Multiindicator Systems -Introduction to Partial Order Applications-, , Editorial Springer New York Dordrecht Heidelberg London. • JOAO E. Steiner. World University Rankings A Principal Component Analysis, Institute of Advanced Studies of the University of São Paulo; Institute of Astronomy, Geophysics and Atmospheric Sciences of the University of São Paulo. • RUIZ, Roberto ; AGUILAR-RUIZ, Jesús, RIQUELME, José. Evaluación de Rankings de Atributos para Clasificación Departamento de Lenguajes y Sistemas Informáticos Universidad de Sevilla, Sevilla, España {rruiz,aguilar,riquelme}@lsi.us.es. disponible en: http://www.lsi.us.es/redmidas/Capitulos/LMD28.pdf • SANTOS, López Leyva (2012).Los rankings universitarios. bases teoricas, metodologia y su impacto en la educacion superior global. revista de la educación superior issn: 0185-2760 Vol. XLI (1), No. 161 Enero - Marzo de 2012, pp. 141 -149 • UNIVERSIDAD DE ANTIOQUIA. Rankins de Universidades, Autoevaluación del Sistema Universitario de Investigación. 2011. Disponible en: http://www.udea.edu.co/portal/page/portal/BibliotecaInvestigacion/InformacionGeneral/si stemaUniversitarioInvestigaci%C3%B3n/autoevaluacion/Rankings_UniversidadesMar15.pdf • O`LEARY, Kathleen; MORGAN, Scott, (editores) Education State Rankings 2005-2006 Pre K-12 Education in the 50 United States, Morgan Quitno Press USA. • VAN VUGHT, Frans A.; ZIEGELE Frank (Editores) (2011) Multidimensional Ranking -The Design and Development of U-Multirank-, , Editorial Springer New York Dordrecht Heidelberg London. 17