˜ Pr´ologo
La idea fundamental de esta notas confecionadas a modo de resumen (personal) es la de tener a mano un recordatorio de por donde iban los tiros. S´olo se demuestran los teoremas fundamentales y se acompona el texto con una serie de ejercios m´as o menos trabajados. En modo alguno pretenden sustituir (porque es implosible) los manuales cl´asicos o las notas de clase de un profesor. Es decir, estas notas estan confeccionadas a modo de refrito entre las notas de clase y de distintos libros cl´asicos como los siguientes: ˜ 1.
2.
3.
4.
5. Juli´an de la Horra. Estad´istica Apliaca. Diaz de Santos (2003)
M.A. G´omez Villegas Inferencia Estad´isticaDiaz de Santos (2005)
Novo, V. Problemas de C´alculo de Probabilidades y Estad´istica UNED (1993).
Daniel Pena. Fundamentos de Estad´istica. Alianza Editorial (2001)
R. V´elez Ibarrola et al. Principios de Inferencia Estad´istica UNED (1993) todo ello aderezado (como he indicado antes) con una serie de ejemplos (ejercicios donde se aplica de forma inmediata los conceptos te´oricos expuestos) desarrollados (eso espero) al ?nal de cada capitulillo (todos ellos muy sencillos).
Agradezco al Prof. Juli´an de la Horra el haberme pasado las secciones 3.4 y 4.4 de estas notas, ´estas son enteramente suyas.
ADVERTENCIA: No est´an concluidas y es muy posible que hayan sobrevivido numerosas er- ratas. Toda observaci´on en este sentido es bien recibida. v
Cap´itulo 1
Muestreo aleatorio. 1.1. Muestreo aleatorio simple. Es el objetivo fundamental de la inferencia estad´istica. Obtener conclusiones razonadas sobre una caracter´istica X de una poblaci´on a partir de los resultados de una muestra. Dicha caracter´istica X ser´a una variable aleatoria (v.a.) (discreta o cont´inua) y por lo tanto estar´a descrita por su funci´on de masa o de densidad, escrita de forma gen´erica f.
Observaci´on 1.1.1 f no es completamente conocida.
De?nici´on 1.1.1 Una muestra aleatoria (m.a.) de una caracter´istica X cuya distribuci´on es f (x) i.e. X ~ f (x), es un vector aleatorio (X1,….,Xn) tal que 1.
2. La distribuci´on marginal de cada Xi viene dada por la misma distribuci´on que la caracter´istica i.e. (Xi)ni =1 ~ f (x). (Xi)ni =1 son independientes. El signi?cado intuitivo es el siguiente.
a Las observaciones son representaciones de la poblaci´on que estoy estudiando.
b La muestra es con reemplazamiento. 1. 2. por simplicidad matem´atica (el caso no independiente es mucho m´as complejo) la muestra es con reemplazamiento, signi?ca que la muestra (su tamano) es pequeno en ˜ ˜ comparaci´on con la poblaci´on.
Fundamentalmente por lo tanto la funci´on de masa o de densidad de una muestra aleatoria ven- dr´a dada por f (x1,…..,xn) = indpen. i=1 f(xi). (1.1) 1
S = 2 CAP´ITULO 1. MUESTREO ALEATORIO. Ejemplo 1.1.1 Supongamos que X es del tipo, estatura, etc… entonces es razonable pensar que
X ~ N(µ,s2),
donde falta por conocer µ y s2.
Un problema de inferencia param´etrica es aquel en el que queremos estudiar una caracter´istica X ~ f? (x), donde ? es el par´ametro a encontrar, ? ? T (espacio param´etrico). Nuestro prop´osito ser´a encontrar conclusiones sobre ? por lo tanto la eq. (1.1) se reescribe como f? (x1,…..,xn) = indpen. i=1 f?(xi). (1.2) De?nici´on 1.1.2 Un estad´istico T es una funci´on medible de la muestra T : Rn-? Rn. Formal- mente T es un variable o vector aleatorio. T viene a ser el resumen de la muestra.
Ejemplo 1.1.2 Veamos algunos ejemplos de estad´isticos: 1. Media muestral X = 1 n n
i=1 Xi, (1.3) 2. Varianza muestral var(X) = 1 n n
i=1 Xi – X 2 = 1 n n
i=1 i X2 – nX 2 , (1.4) 3. Cuasi-varianza muestral 2 1 n – 1 n
i=1 Xi – X 2 = 1 n – 1 n
i=1 i X2 – nX 2 , (1.5) 4. Esta´isticos de orden X(1),……,X(n) , (1.6) donde (1.7) X(1) = m´in(X1,….,Xn), … X(n) = m´ax(X1,….,Xn).
E [Xi] = n , = ?Xi(t) = ?nX(t), ) = ?nX( ), n . 1.1. MUESTREO ALEATORIO SIMPLE. 3 Proposici´on 1.1.1 Propiedades de los estad´isticos. Sea (X1,….,Xn) una m.a. tal que E (X) = µ y var(X) = s2, entonces: 1. E X = µ, se observa que E 1 n n
i=1 Xi = 1 n n
i=1 indp. 1 n nE [Xi] = µ 2. s2 var X = Vemos que var X = var 1 n n
i=1 Xi = 1 n2 var n
i=1 Xi indp. 1 n2 nvar(Xi) = s2 n 3. E S2 = s2. n n s2 n ¿qu´e podemos hacer?. Estudiar su funci´on caracter´istica. Sea (X1,….,Xn) una m.a. de X con funci´on caracter´istica ?X(t), entonces encontramos que ? Xi(t) = indpen. i.d. (1.8) mientras que 1 ?X(t) = ? n n i=1 Xi(t) = ? n i=1 Xi( t n t n (1.9) bas´andonos en las propiedades de las funciones caracter´isticas.
Ejemplo 1.1.3 Sea (X1,….,Xn) una m.a. de X ~ N(µ,s2), con funci´on caracter´istica ?X(t), ¿qu´e podemos decir sobre la distribuci´on de la media muestral, X?. Vemos que 1 2 2
entonces teniendo en cuenta las f´ormulas anteriores encontramos que: t t n t 2 2 1 t 2 2 n donde observamos que E X = µ, y var X = s2 Volmemos otra vez sob
Página siguiente |