Algunas Soluciones del tema 4 1. En cuanto al sesgo, el primero es el estimador MCO que sabemos es insesgado (ver apéndice técnico del este capítulo). En cuanto al segundo tenemos, ⎛y −y ⎞ ⎛ β x + ε − β x1 − ε1 ⎞ E ( βˆ 2 ) = E ⎜ n 1 ⎟ = E ⎜ n n ⎟= x − x x − x n 1 ⎝ n 1⎠ ⎝ ⎠ ⎛ β ( xn − x1 ) ε n − ε1 ⎞ ⎛ ε n − ε1 ⎞ =E⎜ + ⎟ = β + E⎜ ⎟=β xn − x1 ⎠ ⎝ xn − x1 ⎝ xn − x1 ⎠ Es decir, que también es insesgado. Por el teorema de Gauss Markov sabemos que no hay ningún estimador lineal e insesgado que tenga menos varianza que el MCO, de manera que, siendo ambos lineales e insesgados, el primer estimador es preferible. 2. a) Si el verdadero modelo es el primero sabemos que, por la expresión (4.2.4), después de desarrollar la expresión cuando consideramos que estimamos el segundo modelo: βˆ3 = β3 + β 2 ∑ Es decir, x2i x3i ∑x 2 3i + ∑ x v ∑x 3i i 2 3i ⎡ ∑ x2i x3i ⎤ ⎡ ∑ x3i vi ⎤ ⎡ ∑ x2i x3i ⎤ E ( βˆ3 ) = β3 + E ⎢ β 2 +E⎢ = β3 + E ⎢ β 2 ⎥ 2 ⎥ 2 ⎥ ⎢⎣ ⎢⎣ ∑ x3i ⎥⎦ ⎢⎣ ∑ x3i ⎥⎦ ∑ x32i ⎥⎦ A no ser que las variables X2 y X3 tengan correlación nula, el último elemento de la parte derecha no se anulará y, en consecuencia, !! no será un estimador insesgado de !! . b) El signo del sesgo depende tanto de la covarianza como del signo de β2 y por tanto el conocimiento del signo de la primera, no es suficiente para saber el signo del sesgo. 5. Podemos por ejemplo calcular la ecuación normal que resulta de aplicar el criterio MCO, es decir la minimización de !"# = !! − ! ! , ∂SCR ∑ Yi = Y = −2∑ (Yi − b) = 0 ⇒ b = ∂b n La varianza será, E (Y − E (Y ) ) = E ( β + u − β ) = E (u ) = 2 2 σ u2 n donde en la primera igualdad se sigue de que el estimador MCO es insesgado. 2 EMPIRICOS 6. A) La Regresión pedida arroja el siguiente resultado, Modelo 1: estimaciones MCO utilizando las 200 observaciones 1-200 Variable dependiente: Salario___hora Variable const Educacion Experiencia Habilidad Coeficiente 1,17651 0,0595566 0,0392994 0,0510985 Desv. típica Estadístico t 0,218069 5,3951 0,0170819 3,4865 0,0135863 2,8926 0,0366472 1,3943 Media de la var. dependiente = 2,0607 Desviación típica de la var. dependiente. = 0,410972 Suma de cuadrados de los residuos = 29,7787 valor p <0,00001 0,00060 0,00425 0,16479 *** *** *** Desviación típica de los residuos = 0,389785 R2 = 0,114011 R2 corregido = 0,10045 Estadístico F (3, 196) = 8,40724 (valor p = 2,77e-005) Log-verosimilitud = -93,3353 Criterio de información de Akaike = 194,671 Criterio de información Bayesiano de Schwarz = 207,864 Criterio de Hannan-Quinn = 200,01 Educación y experiencia son significativos al 1% (y por tanto también al 5% y al 10%). Sin embargo, en el caso de la habilidad y para un contraste bilateral, la hipótesis nula H0: β=0 no se rechazar a ninguno de esos niveles, lo que significa que no ejerce influencia sobre el salario. Si el contraste fuese unilateral, la hipótesis de que el parámetro correspondiente a la habilidad es igual a cero, podría rechazarse a un nivel del 10%, manteniéndose inalteradas el resto de las conclusiones. Si el salario se expresa en logaritmos (como es habitual en este tipo de especificaciones), los resultados apenas sufren cambios: solo la experiencia dejaría de ser significativa al 1% en un contraste bilateral. B) El resultado de la regresión es ahora, Modelo 2: estimaciones MCO utilizando las 200 observaciones 1-200 Variable dependiente: Salario___hora Variable const Educacion__anos Experiencia_en Coeficiente 1,09193 0,0684784 0,0343907 Desv. típica Estadístico t 0,209963 5,2006 0,0158761 4,3133 0,0131536 2,6145 Media de la var. dependiente = 2,0607 Desviación típica de la var. dependiente. = 0,410972 Suma de cuadrados de los residuos = 30,0741 Desviación típica de los residuos = 0,390718 R2 = 0,105223 R2 corregido = 0,0961387 Estadístico F (2, 197) = 11,5833 (valor p = 1,75e-005) valor p <0,00001 0,00003 0,00963 *** *** *** Log-verosimilitud = -94,3224 Criterio de información de Akaike = 194,645 Criterio de información Bayesiano de Schwarz = 204,54 Criterio de Hannan-Quinn = 198,649 Todos los estadísticos pedidos son calculados por Gretl, Regresión Estadístico A B 2 R corregido 0,10045 0,09614 Log-verosimilitud -93,3353 -94,3224 Criterio de informa. de Akaike 194,671 194,645 Según los dos primeros, la regresión del apartado A sería preferible a pesar de todo: tanto el coeficiente de determinación corregido como el logaritmo de verosimilitud, son mayores. De acuerdo con el tercero es mejor la regresión del apartado b, puesto que dada su definición, será mejor aquél modelo que presente un menor valor de dicho estadístico.