Decisiones individuales: Axiomas básicos del modelo estándar de elección racional Decisiones Económicas: Individuales, Colectivas y Estratégicas Prof. Raúl López Modelos de Elección Racional (I) • Modelo (matemático) = Explicación lógicamente completa, basada en hipótesis precisas, formuladas en lenguaje matemático, y que simplifican deliberadamente la realidad. • Modelo de elección o decisión = Teoría o explicación sobre cómo los individuos toman decisiones. • Modelos de elección racional = Cualquier teoría sobre la decisión humana basada en la idea de racionalidad (ver más adelante). Habitualmente utilizados por los economistas en sus explicaciones. 2 Modelos de Elección Racional (II) • Nota metodológica: El uso de modelos tiene varias justificaciones i. Permiten obtener predicciones precisas (efectos netos) que pueden ser testadas empíricamente. ii. Usar el lenguaje matemático permite ser detallados, claros y precisos, y con ello ser honestos en cuanto a las premisas de nuestro razonamiento. iii. La simplificación es obligada cuando la realidad es compleja. Cierto grado de error es inevitable si queremos una explicación que sea manejable (fácilmente comprensible y aplicable por los demás, por ejemplo). 3 Modelos de Elección Racional (III) • Todo modelo de elección racional se basa en tres intuiciones clave sobre el decisor D en un problema de decisión: 1. D tiene creencias acerca del conjunto de alternativas o espacio de elección: Algunas opciones son factibles y otras no. 2. D tiene preferencias sobre las alternativas, que representan sus gustos, intereses, objetivos, etc. 3. Racionalidad: Entre todas las opciones que considere factibles, D elegirá su preferida. Es decir, racionalidad = maximización. 4 Utilidad esperada (I) Un modelo de elección individual busca explicar el comportamiento en situaciones no interactivas (es decir, cuando el bienestar de D no depende de las decisiones de otros). El modelo de elección individual racional que los economistas usan habitualmente se denomina teoría de la utilidad esperada. Es una teoría/modelo sobre cómo deciden los individuos cuando existe incertidumbre o riesgo. Incertidumbre/riesgo = El decisor no está 100% seguro de las consecuencias de su decisión sobre su bienestar. 5 Utilidad esperada (II) En las páginas siguientes repasaremos brevemente los conceptos e hipótesis fundamentales de la teoría de la utilidad esperada. Las hipótesis aparecerán en negrita y subrayadas. Nota 1: Una buena introducción a la teoría puede encontrarse en Starmer (2000), JEL, 38, pp. 332-382. Este artículo también discute evidencia empírica sobre el tema. Nota 2: Las decisiones sin riesgo pueden considerarse un caso especial de las decisiones con riesgo, por lo que el modelo también puede usarse para explicarlas. 6 Loterías (I) • En todo problema de elección con riesgo, cada acción o alternativa disponible recibe el nombre de lotería. • Toda lotería L se compone de dos tipos de cosas: 1. Consecuencias (o resultados) que D piensa que pueden ocurrir si escoge L. 2. La probabilidad (o creencia) con la que D piensa que puede ocurrir cada consecuencia si escoge L. 7 Loterías (II) • Comentarios: Las consecuencias deben especificar qué valores tomarían en esa contingencia todas aquellas variables que pensemos son relevantes para el bienestar de D. O directamente indicar la utilidad que éste obtendría si ocurriese esa consecuencia. En muchos modelos se simplifica y asume que lo único que le importa al decisor de cada consecuencia es la riqueza monetaria final que él obtenga en ella. A menos que digamos lo contrario, ése será nuestro supuesto implícito en lo que sigue. 8 Loterías (III) Más comentarios: • Para toda lotería L, asumiremos que las probabilidades que el individuo asigna a todas las consecuencias suman 1. En otras palabras: Las consecuencias de L deben ser exhaustivas y mutuamente excluyentes. • Obviamente, toda lotería L tiene que tener al menos una consecuencia posible -es decir, con probabilidad mayor que 0. • Una lotería en la cual una sola consecuencia recoge toda la probabilidad (es decir, 1) es claramente una opción segura o sin riesgo, y suele denominarse lotería segura. 9 Loterías (IV) • Al asumir que la gente elige loterías asumimos implícitamente que el decisor sabe asignar probabilidades a todas las consecuencias que considera posibles de sus opciones. • Nota: Aunque a veces se distingue entre situaciones de riesgo e incertidumbre según esas probabilidades sean objetivas o subjetivas, nosotros no haremos uso de esta distinción. • Importante: La teoría sólo asume que D sabe asignar probabilidades, pero no explica cómo lo hace. Las probabilidades son exógenas al modelo. • Nota: Los procesos de inferencia o asignación de probabilidades se estudian en la parte II de Kahneman (2011). 10 Loterías compuestas (I) • Concepto útil para lo que sigue: Una lotería compuesta es una lotería en la que alguna consecuencia depende del resultado de múltiples variables aleatorias. • Ejemplo: Suponga que tenemos una riqueza inicial de 1000 y tiramos un dado, de modo que 1. Si sale impar, se tira después una moneda. Si sale cara ganamos 100 euros, si sale cruz no ganamos nada. 2. Si sale par, se vuelve a tirar el dado. Si sale 3 o menos, ganamos 2000. Si sale 4 o más, perdemos 1000. 11 Loterías compuestas (II) • Aplicando las leyes de la probabilidad, toda lotería compuesta puede reducirse a una más simple, pero equivalente. • Así, la lotería compuesta recién mencionada puede describirse como una lotería simple con 4 niveles de riqueza final posibles: 0, 1000, 1100, y 3000; todos ellos con probabilidad 0,25. • Importante: Se asume que el decisor es capaz de aplicar correctamente las leyes de la probabilidad, de modo que está indiferente entre una lotería compuesta y su equivalente simple. 12 Utilidad esperada: Preferencias (I) • Sea un conjunto cualquiera de loterías y un decisor D que tiene que escoger una de ellas. • Asumimos que D tiene preferencias sobre el conjunto de loterías. Es decir, le importan tanto las consecuencias de sus acciones como las probabilidades de que aquéllas ocurran. Además, estas preferencias son racionales, es decir: 1. Completas. Dadas dos loterías cualesquiera, D puede decir si prefiere una a otra o si está indiferente entre ellas. 2. Transitivas. Sean tres loterías cualesquiera 1, 2, y 3. Si D considera 1 al menos tan buena como 2, y 2 al menos tan buena como 3, entonces debe considerar 1 al menos tan buena como 3. 13 Utilidad esperada: Preferencias (II) En otras palabras: A la hora de decidir entre una serie de alternativas, todo decisor sabe ordenarlas por orden de preferencia, y esta ordenación no es contradictoria (transitividad). Un argumento común para defender la transitividad es que si las preferencias de D presentaran ciclos del tipo 1 ≺ 2, 2 ≺ 3, 3 ≺ 1, entonces D podría estar dispuesto a pagar en una serie de intercambios (1 por 2, 2 por 3, 3 por 1) que le acabarían llevando a la situación original, pero dejándole más pobre. Este tipo de intercambios parecen poco frecuentes, lo cual sugiere que la hipótesis de transitividad es razonable. 14 Utilidad esperada: Preferencias (III) • También se asume que las preferencias son continuas. • Sean L1, L2 y L3 tres loterías cualesquiera ordenadas por orden de preferencia (es decir, L1 es la mejor de las tres). • Continuidad = El individuo es capaz de indicar cierta probabilidad ρ de modo que esté indiferente entre elegir la lotería intermedia L2 o una lotería compuesta donde con probabilidad ρ sale elegida L1 y con probabilidad 1- ρ sale elegida L3. • Continuidad es una hipótesis técnica que asegura, junto con racionalidad, la existencia de una función de utilidad que represente las preferencias. 15 Utilidad esperada: Preferencias (IV) • Asimismo, se asume que las preferencias satisfacen el llamado axioma de independencia (propuesto por von Neumann y Morgenstern en 1944). • La idea es que la preferencia entre dos loterías L1 y L2 no se ve afectada si combinamos cada una del mismo modo con una tercera lotería L3 (independientemente de cuál sea). • En otras palabras, si dos loterías son idénticas en alguna parte (es decir, en algunas consecuencias y sus probabilidades), las preferencias sobre ellas sólo dependen de la parte en la que sean distintas. 16 Utilidad esperada: Preferencias (V) • Ejemplo sencillo: L1 es la lotería segura ‘3500 €’ mientras que L2 es la lotería ‘0 € con probabilidad 0,2 y 4000 € con probabilidad 0,8’. Supongamos L1 preferido a L2. • Independencia implica que la lotería compuesta [L1 sale elegida con probabilidad p, y otra lotería L3 (la que sea) sale elegida con 1p] es preferida a una lotería compuesta similar en la que L1 se sustituye por L2. (Ejemplo: L3 lotería segura 0 €; p = ¼) 17 Función de utilidad esperada • Todas estas hipótesis implican que las preferencias del individuo sobre las loterías pueden representarse por una función de utilidad con forma de utilidad esperada. Bajo nuestras hipótesis, esto quiere decir dos cosas: 1. Existe una función de utilidad u de la riqueza (o el dinero), que normalmente asumiremos creciente (el dinero da utilidad) y continua. 2. La utilidad de una lotería L con N consecuencias monetarias y probabilidades respectivas p(c1), p(c2), p(c3),..., p(cN) es: 18 U(L) u ( c1 ) p ( c1 ) u ( c N ) p ( c N ) Aversión al riesgo • Finalmente, es habitual suponer que los individuos son aversos al riesgo. Es decir, entre una lotería L con riqueza media E (valor esperado) y una lotería que da riqueza E con total seguridad, se prefiere la segunda. • Puede demostrarse que la función de utilidad del dinero de un individuo averso al riesgo es cóncava. • En otras palabras, la utilidad marginal del dinero para un individuo averso al riesgo es decreciente. Nota adicional: Riesgo ≡ varianza -> Entre dos loterías con igual riqueza media, un averso al riesgo prefiere aquella con menor varianza, al menos si ambas loterías tienen sólo dos consecuencias. 19 Aprendizaje y dinámica (I) • Aprendizaje Bayesiano: Si D recibe evidencia objetivamente nueva y relevante sobre las loterías, actualizará las probabilidades de las consecuencias aplicando la regla de Bayes. • Intuitivamente, la idea es que D entiende qué es una probabilidad condicionada y sabe hacer los cálculos necesarios para actualizar una probabilidad dado que cierta condición se ha producido. • Recordemos que la probabilidad condicionada de un suceso A dado otro B, p(A|B), se define como: p(A B) p(B | A)·p(A) p(A | B) p(B) p(B) 20 Aprendizaje y dinámica (II) • Teniendo en cuenta lo anterior y que (AC denota el suceso complementario de A): p(B) p(B A) p(B A C ) • Se obtiene la regla de Bayes: p(B | A)·p(A) p(A | B) p(B | A)·p(A) p(B | A C )·p(A C ) 21 Aprendizaje y dinámica (III) • Ilustremos la regla con un ejemplo. Imaginemos una empresa que busca seleccionar a un empleado apto para cierta tarea. • A priori, se piensa que la proporción de aspirantes aptos (A) es del 10%, y la de no aptos (AC) del 90%. • En el proceso de selección, el director de recursos humanos realiza una prueba a los aspirantes, que pueden aprobar (B) o no. • Se piensa que la probabilidad de que un aspirante apto apruebe es p(B|A) = 95%, mientras que la de uno no apto es p(B|AC) = 15%. • Un aspirante que apruebe, ¿con qué probabilidad p(A|B) esperaríamos que sea apto para la tarea? 22 Aprendizaje y dinámica (IV) • Aplicando la regla de Bayes, llegamos a la conclusión de que 0,95·0,1 p(A | B) 41% 0,95·0,1 0,15·0,9 • De acuerdo con la idea de aprendizaje Bayesiano, si el director supiese que cierto candidato X ha aprobado, debería actualizar la probabilidad con la que cree que X es apto, pasando de una tasa a priori del 10% a otra aproximadamente del 41%. • Nota: En el ejemplo hemos mantenido constante P(A), p(B|A) y p(B|AC), siendo la probabilidad objetivo p(A|B). En general, y dependiendo de cuál sea la probabilidad que busquemos actualizar, mantendremos constantes las demás y aplicaremos la regla. 23 Aprendizaje y dinámica (V) • Comentarios: 1. En nuestra exposición de la regla de Bayes, hemos particionado el espacio muestral en A y AC. Si la partición fuera diferente, la regla se ajustaría de modo que el denominador incluyese las probabilidades condicionadas de B a cada conjunto de la partición. 2. Nótese que si D piensa que el suceso B tiene a priori probabilidad 0, entonces la regla es inaplicable (no puede dividirse por 0). La regla, por tanto, no nos sirve para explicar cómo D realiza inferencia cuando observa sucesos inesperados. 24 Aprendizaje y dinámica (VI) • Podemos captar alguna implicación de la regla de Bayes a partir de la igualdad antes mencionada p(A | B) • p(B | A)·p(A) p(B) La fórmula indica que la probabilidad de A dado B, p(A|B), no es igual a P(B|A), sino que también depende de la tasa a priori p(A). Si ésta es pequeña, p(A|B) tenderá a ser pequeña también. • Incluso si B es muy probable cuando A ocurre, por tanto, no podemos inferir de la observación de B que A haya probablemente ocurrido. Depende de lo probable que A sea en sí. 25 Aprendizaje y dinámica (VII) • “Common priors” o ‘Doctrina Harsanyi’: Los individuos asignan la misma probabilidad a cada consecuencia de una lotería, a menos que alguno disponga de información relevante objetivamente diferente. • Por tanto, si usted y D disponen de la misma información: 1. D tendrá en mente el mismo número de loterías que usted. 2. D describirá cada lotería en términos de las mismas consecuencias y probabilidades. Ejemplo: Compra de un coche; pros y contras de cada modelo, marcas disponibles, etc. 26 Aprendizaje y dinámica (VIII) • Implicación de common priors: La heterogeneidad de creencias sólo puede ocurrir cuando los agentes dispongan de información objetivamente diferente. • Otra implicación: las creencias de D no variarán a menos que reciba información objetivamente relevante (como las de usted, ¿no?). Así: 1. Invariancia al procedimiento: Las creencias de D no cambiarán entre dos escenarios que sólo se diferencien en la manera de preguntarle a D por sus preferencias. 2. Invariancia a la descripción ≡ Las creencias en dos escenarios no varían si sólo cambiamos los términos con que describimos las loterías (siendo las loterías objetivamente idénticas en ambos casos). 27 Aprendizaje y dinámica (IX) • Nótese que la estabilidad de creencias citada implica a su vez que D siempre tiene en mente en el momento t cualquier información que fuera relevante en t-1. Es decir: El decisor no olvida nada. • En efecto, si D no ha recibido información objetiva adicional en t, deberá tener las mismas creencias que tenía en t-1. • Ejemplo: D es un inversor en deuda pública española. En t-1, D se informa sobre el déficit medio de las haciendas locales. Entonces D actualiza Bayesianamente la probabilidad de impago de la deuda. • Si no recibe más información, D mantendrá posteriormente su estimación, lo cual implica que seguirá teniendo en cuenta el dato sobre el déficit medio. 28 Axiomas básicos: Resumen (I) a) Comportamiento racional: D siempre elegirá su alternativa preferida. b) Egoísmo & niveles de riqueza: En cada consecuencia, lo único que a D le importa es su bienestar material (≡ su consumo y ocio). Por simplificar, suele asumirse que sólo le importa la riqueza monetaria que tenga en esa consecuencia. c) Probabilidades: En problemas con riesgo, D sabe asignar probabilidades (a priori) a cada uno de los posibles resultados, y operar con ellas de acuerdo a las leyes de la probabilidad. Cualquier incertidumbre puede ser cuantificada. Nota: Las probabilidades son exógenas al modelo. 29 Axiomas básicos: Resumen (II) d) Preferencias racionales: D sabe ordenar las alternativas por orden de preferencia y de manera lógica. e) Axioma de independencia: Junto con continuidad y el axioma (d), implica utilidad esperada. Es decir, D elegirá aquella lotería en la que la suma de las utilidades de cada consecuencia, ponderadas por sus probabilidades respectivas, sea máxima. f) Aversión al riesgo: Entre (i) lotería con riqueza media o valor esperado E, o (ii) lotería segura con riqueza E, se prefiere (ii). g) Common priors: A menos que D tenga información relevante objetivamente diferente a la de otro agente X, ambos tendrán las mismas creencias probabilísticas. 30 Axiomas básicos: Resumen (III) h) Aprendizaje Bayesiano: D sabe asignar probabilidades condicionales de un suceso B dado otro A, así como actualizar la probabilidad de que ocurra A dado que ha ocurrido B por medio de la regla de Bayes. i) Inteligencia: D sabe realizar todos los razonamientos que pueda realizar el investigador. En particular, D siempre sabe hallar máximos, incluso aunque el procedimiento de optimización muy complejo. Nota: En realidad este último axioma está implícito en los axiomas de racionalidad, common priors y preferencias racionales. Nótese que siempre existirá una alternativa óptima si las preferencias son racionales (al menos si el número de alternativas es finito). 31