ESTADÍSTICA AYUDAS PARA EL TEST (1ºParcial) 1) La suma de probabilidades de todos los casos posibles de un experimento tiene que ser igual a uno. 2) La probabilidad de aprobar este test (5 preguntas, cada una con 4 respuestas posibles pero solo una verdadera) respondiendo aleatoriamente: Se trata de una variable aleatoria binormal con n=5, probabilidad= ¼. B(5, ¼); La probabilidad es P= P(x=3) +P(x=4) + P(x=5): P = 0.10247 3) En el experimento de lanzar un dado. ¿qué es más probable, obtener un 6 en el primer lanzamiento o sacar un 6 en el sexto lanzamiento sabiendo que en los primeros 5 anteriores no ha salido ningún 6? Es igual de probable. 4) Dos sucesos disjuntos pueden ser dependientes. 5) Dos sucesos disjuntos no pueden ser independientes. 6) Dos sucesos independientes si pueden darse conjuntamente. 7) Dos sucesos compatibles pueden ser dependientes o independientes. 8) Un suceso razonable es un conjunto de valores de la v.a que responden puramente a la aleatoriedad del fenómeno al que representan. (P=95%) 9) Un suceso raro es un suceso en es que P<<1, cuya ocurrencia no cabe esperar que sea debida a la aleatoriedad del fenómeno estudiado sino a la concurrencia de cargas ajenas a él (P=5%) 10)¿Cómo se obtiene σ2 a partir de µ? σ2=α1+α2 11)¿Existen siempre µ y σ? No ,las integrales o sumatorios pueden ser divergentes 12)¿Para valores pequeños de σ? Los valores de la v.a se concentran en torno a su esperanza µ. 13)¿Para valores grandes de σ? Los valores de la v.a se reparten ampliamente alrededor de su esperanza µ. 14)En una variable aleatoria continua no tiene sentido el cálculo de probabilidad en un punto, sino en un intervalo. 15)Dos variables aleatorias independientes nunca tienen covarianza < 0. 16)Dos variables independientes tienen coeficiente de correlación nulo. Peor aproximación. 17)La variable aleatoria ß no puede converger a Dirac excepto si el suceso inicial es uniforme. (falso, siempre converge a Dirac) 18)Sea una variable normal (µ,σ): a) La distribución es simétrica respecto del origen. Falso, lo es respecto µ. b) Siendo F(x) la función F (µ+x)=F (µ-x). Falso. c) Media y esperanza coinciden. Correcto 19)El coeficiente de correlación de dos variables aleatorias … a) Es siempre ≤ 2 .Falso. b) Será negativo si la convergencia Bayesiana es negativa. Falso. c) Es dos si... Falso, nunca será dos. d) Ninguna de las anteriores. Verdadero. 20)Sean dos variables aleatorias (x, y), se sabe que f(x, y) = xy, f1(x)=x, y que f2(y)=y ¿son independientes? Es condición necesaria y suficiente para la independencia que f(x, y)=f1(x)f2(x). no hace falta saber su dominio, se sabe que en este caso su dominio será un paralelogramo de lados paralelos a los ejes coordenados. 21)Relacionado con variables aleatorias deducidas de la normal… (pág. 315) 22)En una Chi cuadrado con n grados de libertad, a) la esperanza coincide con la varianza. Falso, E (ξ)=n; V (ξ)=2n. b) La función F con n y m grados de libertad es un cociente de normales N (0,1). Falso. c) La varianza de la t de student tiende asintóticamente a 0,5 al crecer n (grados de libertad). Falso, lim V(ξ)=lim1/n =1. d) Chi cuadrado es una suma de los cuadrados de variables normales N(0,1). Verdadero. 23)Sea una variable aleatoria bidimensional con función de densidad f(x,y)=kxy definida para x en (0,1); y en (0,1): a) El coeficiente de correlación de X e Y tiende asintóticamente a 0. Falso. b) K es siempre mayor que 5. Falso, k=4; f(x)f(y)= ¼ k2xy c) X e Y son independientes. Verdadero, dominio rectangular lados paralelos. d) El coeficiente de correlación vale 0,95. Falso. 24)Para calcular el Ia de la media de una variable aleatoria… a) Realizaríamos χ2 o de adherencia. Falso. b) Calcularíamos el semivariagrama. Falso c) Partiríamos de la variable aleatoria de la media muestral. Verdadera. 25)Un contraste paramétrico aprovecha mejor la información de la muestra que uno no paramétrico. 26)Un contraste no paramétrico… a) Es siempre preferible a uno paramétrico. Falso. b) Mejora la tendencia eficiente de la muestra. Falso. c) Es un recurso para muestras pequeñas (test de las sigmas). Verdadero. d) Nunca debe realizarse. Falso. 27)El estimador de máxima verosimilitud de la media de la población es la media muestral… a) Nunca. Falso. b) Siempre. Falso. c) En algunos casos. Verdadero. d) Si el dominio es rectangular. Falso. 28)La varianza muestral como estimador de la varianza poblacional es: a) Centrado. Falso. b) Sesgado. Verdadero. c) Asintóticamente centrado sólo cuando es suficiente. Falso. d) Centrado si cumple Rao- Blackwell. Falso. 29)¿Puede decidir que estimador es el mejor entre las siguientes parejas? a) Suficiente- eficiente. Falso. b) Suficiente- centrado. Falso. c) Eficiente- centrado. Verdadero, si es eficiente, es el de menor riesgo de todos los centrados, por tener varianza mínima y por lo tanto el menor. 30)La varianza de la muestra es un estimador eficiente de la varianza poblacional. Falso, es siempre sesgado, así que o puede ser eficiente. 31)Responder verdadero o falso: a) Un estimador centrado es siempre mejor que uno sesgado. Falso. b) Un estimador centrado es siempre peor que uno sesgado. Falso. c) Un estimado eficiente es asintóticamente eficiente. Falso. 32)¿S2 puede ser un estimador eficiente? S2es un estimador centrado para S, luego si estamos S2 y tiene varianza mínima sí que podría serlo. 33)¿La cuasi varianza muestral puede ser un estimador eficiente? La cuasi varianza muestral es un estimador centrado respecto σ de la varianza poblacional, y por ser centrada puede ser eficiente. Sólo hace falta que su varianza sea mínima. Por tanto, si tiene mínima varianza, la cuasi varianza muestral será un estimador eficiente de la varianza poblacional. 34)¿Qué propiedades tiene una transformación Y=F(x) cuando la función de distribución de la variable x es simétrica? g(y)dy=f(x)dx →g(y)=f(x)/(dy/dx)=f(x)/f(x)=1. X=F’(x). 35)¿La función f(x)=k(1-2x) puede ser función de densidad de una variable definida entre 0 y 1? No, pues no es >0 para todo x en [0,1]. 36)¿Existe siempre la función generatriz? No. 37)¿Existe siempre la función característica? Si. 38)Una variable aleatoria definida para x>0 entero y 1 tiene f(x)=(kx2)- 0,5. ¿Es función de densidad? No es función de densidad ya que entre [0,a], f(x)<0. 39)Toda f(x) positiva definida en [a,b] tal que ∫f(x)dx=1 es una función de densidad. 40)Una función de densidad es necesariamente positiva excepto cero en algún punto. 41)El área encerrada entre dos puntos a y b bajo una función de densidad representa la probabilidad de que la variable aleatoria se encuentre entre esos valores. 42)Siendo las variables aleatorias x e y independientes, si u=x+y, v=x-y ¿son independientes u y v? Falso. u=v+2y. 43)Sea una variable aleatoria bidimensional (x,y) de función densidad f(x,y) definida en un dominio circular D, ¿son x e y independientes? No pueden serlo, dominio no rectangular. 44)Sea una variable aleatoria bidimensional definida en (0,1)x(0,1) ¿pueden ser sus variables independientes? Podrían, pues es un dominio rectangular. 45)Para contrastar con n=500 si se trata de una v. de Poisson: Contraste X2: requiere muestras grandes pero es el mejor. 46)¿Qué quiere decir que la variable aleatoria de Poisson tiene la propiedad aditiva? ¿En qué condiciones? Quiere decir que la suma de variables de Poisson independientes es también una variable aleatoria de Poisson. La distribución goza de la propiedad aditivas cuando se refiere la variables independientes, como puede comprobarse calculando la función característica de la variable suma como producto de las funciones características de las variables independientes que se suman P(λ1)+P(λ2)+P(λ3)… = P(λ1+ λ2+ λ3…)con P(λi)independiente. 47)Sea una v.a bidimensional, como dominio circular de radio finito. Las variables nunca serán independientes. 48)La variable aleatoria “Tiempo hasta la llegada n” en un proceso de Poisson ¿Qué tipo de variable es? En un proceso de Poisson puede definirse la variable γ (gamma) que modeliza el tiempo que hay que esperar hasta que ocurra la instancia n-ésima. La variable γ Г(µ,n) con n entero se denomina variables de Erlang. Se trata de una variable aleatoria continua. 49)Dada una muestra de 500 valores, se desea contrastar si corresponde a una variable de Poisson. Describir que tipo de contraste habría que realizar. La hipótesis de contraste de corresponder a una determinada distribución de probabilidad se tratan específicamente con los test de adherencia o de bondad de ajuste (contraste χ2) para muestras grandes (500 >30). El test χ2de Pearson se trata de un test que contrasta la hipótesis nula(la muestra procede de una determinada distribución) a partir de la distribución de un estadístico que relaciona las frecuencia teóricas y de la muestra. Ver esquema pág. 157- 158 del libro. 50)La media de una muestra con n= 9 es x=7. Si σ= 1, ¿es aceptable la hipótesis de que µ=8 con α= 5%? En ningún caso I=X±1’96 = 7±1’96* 1/3 [6,35; /,65] 51)Para calcular un intervalo de confianza para la media poblacional a partir de una muestra aleatoria ¿qué debemos hacer? a) Uso el análisis de la varianza. Falso. b) Test de adherencia. Falso. c) Semivariagrama. Falso. d) Partir del valor de la media muestral (más propiedades de la media muestral). Verdadero. 52)Para calcular un intervalo de confianza de la media de una v.a a partir de una muestra… a) Utilizaríamos el análisis de la varianza particularizando para la media. Falso. b) Realizaríamos el test Chi- 2 de adherencia. Falso. c) Calcularíamos el semivariagrama correspondiente. Falso d) Partiríamos de las propiedades de la variable aleatoria “media muestral”. Verdadero. 53)Cuando se calcula un intervalo de confianza… a) Al aumentar en nivel de confianza aumenta la amplitud del intervalo. Verdadero, confianza del 100%, I sale (-∞,∞) b) Al aumentar en nivel de confianza disminuye la amplitud del intervalo. Falso. c) La amplitud del intervalo es independiente del intervalo de confianza. Falso. d) Depende del tipo de variable aleatoria considerada. Falso, es independiente y luego se comprueba si la variable pertenece a él o no. 54)De una muestra de tamaño n=10 se pretende determinar si puede proceder de una población normal. Para ello… a) Se realiza un test chi cuadrado. Falso. b) Se calculará el intervalo de confianza de la media. Falso. c) Se realiza un contraste no paramétrico. Verdadero. 55)En una muestra de tamaño n=10 se calcula la media x y la desviación típica muestrales S2. En otra muestra de tamaño n=20 se obtiene la misma media y desviación. a) Es imposible. Falso. b) La desviación típica debería valer la mitad con la muestra mayor. Falso. c) La desviación típica debería valer el doble con la muestra mayor. Falso. d) El intervalo de confianza de la media será menor con la muestra mayor, ya que I= x±zσ/(n)^1/2. Verdadero ,mayor muestra más precisión en las estimaciones. 56)La media muestral de una m.a.s tamaño 100 es 1 ¿Puede la muestra proceder de una población N(0,1)? a) Depende del nivel de confianza. Verdadero. b) Si, si tiende asintóticamente. Falso. c) Es poco probable. Falso. d) En ningún caso. Falso. 57)Para n=100 X=1. ¿Puede proceder la muestra de una N(0,1)? Depende del nivel de confianza de contraste. Es muy raro que con una muestra tan grande x=1 y µ=0, pero I= 1±Zα0,10. Para que esté el 0 necesitamos Zα= 10 con un intervalo de confianza grande está el 1. 58)En un test de adherencia(chi cuadrado: χ2) el estadístico calculado toma el valor de Id= 1’35; si el numero de grados de libertad es de 5 (χ52): Aceptamos la hipótesis para niveles de significación del 5% o inferiores (se ve en las tablas). 59)Si la probabilidad de volver a un mismo estado en una cadena de Markov es < 1 → es irreductible. 60)Dada una Cadena de Markov con matriz de transición: M= ¿Es ergódica? No, ya que hay dos estados absorbentes→ la cadena de Markov no es irreductible. Para que una cadena de Markov pueda ser ergódica a parte de ser recurrente, aperiódica y no nula, se supone homogénea e irreductible, y esta no lo es. 61)Coeficiente de correlación =0 → covarianza nula. 62)Sea X v.a en Г(185, 2) y sea Y= 127+ x/√3π su curva de regresión ¿cuál es su coeficiente de correlación? Si hay dependencia funcional, el coeficiente de correlación es 1. 63)Dos rectas de regresión con pendientes de ≠ signo → Varianza >0 64)Las rectas de regresión deben tener las pendientes del mismo signo. Además el signo de sus pendientes es el de la cuasi varianza. Se cortan siempre dentro de su dominio en el punto (x,y)= (E(x), E(y)). 65)Dadas dos v.a (x, y) con curva de regresión ξ2+= Y= E(x)¿son x e y independientes? Y*=Q(x)=E(y/x=x)= se debe cumplir la igualdad en 1 para ello f(x,y)/f1(x)=f2(y)→f(x,y)=f1(x)f2(y) condición necesaria y suficiente para la independencia de variables. Si, son independientes. 66)¿Las rectas de regresión de una v.a deben tener pendientes del mismo signo? Si, siempre que Cov(x,y)≠0. 67)El coeficiente de correlación de dos variables aleatorias es cero a) Siempre. Falso. b) Nunca. Falso. c) Si y solo si son independientes. Falso. d) Ninguna de las anteriores es correcta. Verdadero. 68)¿Puede ser la varianza negativa? Nunca . 69)La convergencia casi segura implica la convergencia de una sucesión de probabilidades. Verdadero. 70)Una variable ß converge siempre a una delta de Dirac. Verdadero. 71)La función generatriz de momentos de una variable de Cauchy no existe. Verdadero, el cálculo de los momentos par lleva a una integral divergente, la variable crece por momentos. 72)La variable de Cauchy es simétrica con respecto al eje de coordenadas. 73)Una variable de Cauchy (0,1) se puede obtener como cociente de dos variables N(0,σ) independientes entre sí. Verdadero. 74)El coeficiente de correlación nulo implica covarianza, S2, nula. Verdadero. 75)Dos variables bidimensionales con dominio circular no son independientes. Verdadero. 76)Sea N(µ,σ), la distribución de probabilidad es simétrica respecto del origen. Falso. 77)Dadas las variables x e y y la curva regresión y =E(k)=cte. ¿Son independientes? E[(y-k)2] mínimo→ k=E[y]=E[x] E[(Y-G(x))2] Y=G(x)= E(Y/X=x)= La mayor aproximación no depende de x, luego son independientes. 78)Sean dos variables aleatorias definidas en un dominio DxyΞ rectangular. ¿son independientes?. Si, es condición necesaria y suficiente 79)Cuando hay dependencia funcional de las variables, el coeficiente de correlación es 1 porque la aproximación es exacta. 80)Sea x una variable aleatoria con E(x)=1; E(x2)=2; E(x3)=3. Calcular . 81)La convergencia de probabilidad implica la convergencia de sucesión de variables. Falso. 82)Sea f(xy) tal que su dominio de convergencia sea una elipse de ejes a y b. ¿son independientes las variables? a) Si, son independientes. Falso, nunca. b) Son independientes si y solo si a=b. Falso. c) Son siempre independientes. Falso. d) Nunca son independientes. Verdadero, el dominio es incompatible con la independencia. 83)Si dos variables bidimensionales están en un dominio circular son independientes. Falso, sólo serán independientes cuando el dominio tenga los lados paralelos a los ejes coordenados. 84)No puede haber una función de densidad negativa. 85)La convergencia cuasi segura implica la convergencia de una sucesión de probabilidades. Verdadero. 86)Propiedades de la transformación y= F(x) cuando su función f(x) es la función de distribución g(y)dy=f(x)dx g(y)=f(x)/(dy/dx)=f(x)/f(x)=1 → x=F-1(y) 87)Sea χ2 (variable aleatoria chi-cuadrado de Pearson) con n grados de libertad. a) La esperanza coincide con la varianza. Falso, E(ξ)=n y V(ξ)=2n. b) La función es un cociente. Falso, se define como la suma de los cuadrados de n variables Z normales N(0,1) e independientes c) χ2 es la suma de los cuadrados de N(0,1). Verdadero. d) Ninguna de las anteriores es correcta. Falso 88)Sea una función de densidad: f(xy)=kxy definida en [0,1]x[0,1] a) El coeficiente de correlación tiende asintóticamente a 0. Falso. b) K>5. Falso. c) Las variables x e y son independientes. Verdadero. 89)La media de la muestra y la varianza -2’75, la muestra: a) Se acepta. Falso. b) No se puede tomar una decisión. Falso. c) Se rechaza. Verdadero, la varianza no puede ser negativa. 90)El periodo de retorno es el inverso de la probabilidad cuando es transitorio. Falso. 91)Cuando dos sucesos no tienen ningún elemento en común su intersección es el suceso imposible, entonces se llaman sucesos disjuntos o incompatibles 92)La función densidad de probabilidad es la derivada de la función distribución de probabilidad. Las propiedades son: FDP(x) 0 para toda x. La integral de FDP(x) es el área bajo la curva de FDP(x), siempre es 1. La probabilidad de que X tome un valor en el intervalo [a,b] es el área bajo la curva de la función de densidad. La gráfica FDP(x) se conoce como curva de densidad. 93)No todas las variables aleatorias tienen un valor esperado (por ejemplo la [distribución de Cauchy]). 94)Propiedades de la varianza : , propiedad que permite que la definición de desviación típica sea consistente. Siendo a y b constantes cualesquiera 95)La función característica siempre existe, ya que el sumatorio o integral definida que la calcula es siempre convergente. 96)Una variable aleatoria queda plenamente caracterizada cuando se conoce su función de densidad, su función de distribución o su función característica. Por el teorema de Levy 97)La función característica permite obtener los momentos de la variable aleatoria. 98)No se puede asegurar que exista siempre la función generatriz, ya que al desaparecer la unidad imaginaria en la expresión de M(t) no es posible aplicar el razonamiento realizado anteriormente sobre la definición de función característica. 99)Una función de distribución ha de cumplir 3 condiciones: Y Es continua por la derecha Es monótona no decreciente