Pronósticos Electorales para Chile Este es el primer intento serio para hacer un pronóstico de una elección presidencial en Chile. Nunca antes se ha tratado de construir un instrumento para predecir resultados electorales antes que ocurran. Es un esfuerzo por tratar de entender lo que sucede en los meses previos a que se lleve a cabo una determinada elección. Es un experimento en tiempo real que intenta monitorear patrones y tendencias en las preferencias electorales de los chilenos. Hay que partir por lo que ya existe. Hasta el momento, hay una notable colección de literatura retrospectiva sobre comportamiento electoral. Académicos como David Altman, Alfredo Joignant, Carlos Huneeus, Miguel Ángel López, Mauricio Morales, Patricio Navia y Samuel Valenzuela entre otros han disectado el sistema político para explicarnos por qué unos ganan y otros pierden. Yo mismo escribí mi tesis de Máster sobre la elección de 2009/2010. Pero explicar resultados electorales en retrospectiva es una cosa, explicarlos antes que ocurran es otra cosa. Y en lo segundo, hay muy poco escrito. Hasta ahora, simplemente se han usado resultados de encuestas de manera descriptiva. Por ejemplo, es común que asesores de candidatos presidenciales dependan únicamente de encuestas para diseñar los itinerarios de sus candidatos. Sin encuestas, no tendrían cómo elegir las mejores estrategias para sus jefes. Pero este proceso tiene un problema fundamental. Las encuestas se equivocan. En estos casos los candidatos quedan a ciegas. Y si los puntos de referencia están mal, es imposible que los candidatos ganen sus batallas. Ejemplos sobran. Uno es Zalaquett en 2012, quien esperaba ganar en Santiago por un amplio margen de votos, pero que finalmente perdió. Si hubiera sabido que la carrera era más competitiva, de seguro habría apurado el trote para capturar esos pocos votos que le faltaron para ganar. Un segundo problema es la falta de puntos de referencia. Si las encuestadoras deciden no hacer encuestas los candidatos simplemente no tienen puntos de referencia. Obviamente cualquier candidatura seria tiene encuestas privadas, pero su utilidad es mayor cuando son públicas, y se puede medir su efecto en la gente. En esencia, el argumento aquí es que cuando pasa mucho tiempo entre encuestas, aumenta la probabilidad que candidatos tomen malas decisiones. La idea, entonces, es corregir estos errores, por medio de un modelo con puntos de referencia correctos para cada día por la duración de un ciclo electoral. El objetivo es usar las encuestas que sí se publican para crear pronósticos y simulaciones electorales sin sesgos. Si tomamos las encuestas en su estado natural esto es prácticamente imposible. El Cuadro 1 muestra este escenario, con resultados de encuestas que se hicieron entre Mayo y Diciembre de 2009. El Cuadro 1 muestra mucho ruido y poca señal. Si bien se ven una tendencia general, es porque los 4 candidatos que compitieron en esa elección ya estaban inscritos. Monitorear preferencias electorales antes que los candidatos se inscriban puede ser caótico. Para separar el ruido de la señal, se debe trazar tendencias. Una forma de hacer esto se muestra en el Cuadro 2. Es lo que hacen, entre otros, los grandes conglomerados de medios. El problema con el Cuadro 2 es que se presume que todas las encuestas son iguales. Simplemente se conecta una encuesta con la siguiente. Mi argumento, por el contrario, es que lo primero que se debe hacer es distinguir las buenas encuestas (las que entregan mucha señal y poco ruido) de las malas encuestas (las que entregan mucho ruido y poca señal). Para lograr esto, se debe ponderar a las encuestas buenas con un peso significativamente más alto. Esa es la premisa fundamental de pronósticos electorales. Para ayudar a explicar los que se hacen en Tresquintos, voy a usar el ciclo electoral de 2009. Sin embargo, me remito a ideas centrales. En otros artículos, como los enlaces en la página de Preguntas Frecuentes, explico detalles. (Lo que sigue puede ser largo, y en partes complejo. Se presume que el lector tiene conocimiento avanzado de estadística frecuentista, y una noción básica de estadística bayesiana). El primer paso, entonces, es recolectar la información que se va utilizar. En este caso, toda la información que se necesita viene de encuestas. Del caudal que se publica en los medios, se registran solo aquellas que reportan (1) las fechas de trabajo de campo, (2) la metodología de investigación y (3) el número de personas encuestadas. Una vez que se cuenta con esta información, se puebla una base de datos. En forma gráfica, sería similar a lo que muestra el Cuadro 1. El segundo paso es ponderar cada una de las encuestas de acuerdo a su peso en el grupo. Se presume que algunas encuestas entregan más y mejor información que otras. La idea es identificar y premiar a esas encuestas. Para esto se usan los datos recolectados en el primer paso. Una encuesta tiene un alto peso si (1) se hizo relativamente cerca de la elección, (2) la encuestadora de la cuál proviene tiene una buena reputación, y (3) tiene un alto número de personas encuestadas. Para calcular el peso temporal, se utiliza un período de semi-desintegración. Este es el lapso de tiempo que se considera antes que la encuesta se empieza a desintegrar, o bien comienza a perder capacidad predictiva. Para calcular el peso de la encuestadora se utiliza el ranking de encuestas, explicado en detalle aquí. Finalmente, para calcular el peso según el número de encuestados, simplemente se estima el margen de error con una confianza de 95%. El resultado se muestra en el Cuadro 3. El gráfico muestra lo que habría sido el pronóstico el 13 de Diciembre de 2009, si solo habría tomado en cuenta la ponderación del paso 2. Es decir, no se gráfica lo que reporta cada encuesta, más bien lo que se estima que reportaría cada encuesta si no tuviera sesgos. Por eso, la línea del Cuadro 3 es diferente a línea del Cuadro 2. No solo es un mejor indicador, pero reporta una estimación de intención de voto día a día. El tercer paso es reducir el error que pueda tener el pronóstico del paso 2. Para eso utilizo una lógica distinta. Pasó de inferencias frecuentistas a inferencias bayesianas. La idea tras esto es determinar la incertidumbre asociada a los pronósticos. La inferencia frecuentista solo nos permite saber la probabilidad de estar en lo correcto si tenemos suficiente información. Es decir, si nuestro N es grande podemos establecer la probabilidad de rechazar inferencias correctas (falsos positivos). Pero muchas veces la estadística frecuentista rechaza falsos positivos (o aprueba verdaderos negativos), sencillamente porque no contiene puntos de referencia reales. La estadística bayesiana, en cambio, inserta probabilidades anteriores (o a prioris) dentro de las inferencias. Expresa la probabilidad condicional de un evento A dado B en términos de la distribución de la probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A. Bajando lo anterior a la elección de 2009, significa que por medio de inferencias bayesianas (utilizando información previa), evalúo la probabilidad de que mi pronóstico este mal. Es decir, en el modelo especifico neutralizar tendencias que no tienen fundamento. Esto sucede, por ejemplo, cuando una encuesta mala publica un resultado que en promedio es muy alto o muy bajo. El paso 4 es simular el paso 3, 100,000 veces. El Cuadro 4 muestra el resultado. El paso final es simplemente interpretar los datos. Aquí hago una diferencia semántica entre un pronóstico y una simulación. El pronóstico responde la pregunta "¿quién ganaría la elección si fuera hoy día?". La simulación, en cambio, responde la pregunta "¿quién ganaría la elección si fuera el 13 de Diciembre de 2009?" Los índices al final de las líneas del Cuadro 4 son pronósticos para el 13 de diciembre, por lo tanto son una simulación. Es importante notar que la última encuesta para la primera vuelta fue el 9 de Diciembre. Si se habría simulado la elección el 9 de Diciembre, habría sido un pronóstico. Pero como se busca predecir 4 días sin encuestas, es una simulación. Notar también que la área sombreada simboliza el intervalo de error. A medida que pasan más días sin encuestas, la área sombreada aumenta. Si se habría simulado la elección el 15 de Noviembre, el área sombreado sería más grande. La simulación es bastante acertada. Para Piñera el pronóstico fue 43,7% (en realidad fue 44,1%), para Frei el pronóstico fue 28,3% (en realidad fue 29,6%), para EnríquezOminami el pronóstico fue 22,6% (en realidad fue 20,1%), para Arrate el pronóstico fue 5,8% (en realidad fue 6,2%). Es decir, todos los pronósticos estuvieron dentro, o a alrededor, de 1% del resultado final--mucho mejor que cualquier encuestadora. Si miramos la distribución de probabilidades de voto para cada candidato usando la misma información, obtenemos lo que se muestra en el Cuadro 5. Allí vemos la probabilidad de voto para cada candidato. El eje horizontal es la probabilidad de obtener la votación que aparece en el eje vertical. Las barras tienen un ancho de 1%, y sumadas por cada candidato suman 100%. Por ejemplo, el 13 de diciembre Arrate tuvo una probabilidad de 50% de obtener entre 5% y 6% de los votos. Lo más interesante del Cuadro 5 son las probabilidades que tienen candidatos de empatar. Era evidente que Piñera iba obtener la mayoría relativa, y Arrate iba obtener la minoría relativa. La verdadera batalla estuvo entre Frei y Enríquez-Ominami. La distribución de resultados muestra la probabilidad de empates. La suma de las barras que se traslapan muestra esto. En este caso, de 100 elecciones, Frei y EnríquezOminami habrían empatado en 10 ocasiones. Esto es solo parte de la potencialidad de los pronósticos. Los resultados que vemos arriba demuestran que el modelo estuvo calibrado casi a la precisión. Es decir, es probable que las estimaciones hechas durante todo el periodo de campaña (entre Mayo y Diciembre de 2009, en este caso) también estén calibrados. Esto significa que los pronósticos hechos aquí entregan más y mejor información que cualquier encuestadora por sí sola. Los modelos fueron desarrollados junto a Stefan Bauchowitz. La manipulación de los datos y los cálculos estadísticos para las pronósticos se hicieron usando R. Para usuarios de MacOS X, se puede bajar aquí. Las estimaciones de probabilidades para las simulaciones se hicieron usando BUGS. Para usuarios de MacOS X, se puede bajar aquí. Más información sobre los modelos y el procesamiento de datos aquí. Para preguntas frecuentes, pinchar aquí.