5 votos

La convergencia en probabilidad y la convergencia en distribución

Estoy un poco confuso acerca de la diferencia de estos dos conceptos, especialmente el de la convergencia de la probabilidad. Entiendo que $X_{n} \desbordado{p}{\a} Z $ si $Pr(|X_{n} - Z|>\epsilon)=0$ para cualquier $\epsilon >0$ cuando $n \rightarrow \infty$.

Sólo necesito algunas aclaraciones sobre lo que el subíndice $n$ significa y lo que $Z$ significa. Es $n$ el tamaño de la muestra? es $Z$ de un valor específico, o de otra variable aleatoria? Si es otra variable aleatoria, entonces no se que significa que la convergencia en probabilidad implica la convergencia en distribución? También, Podría por favor darme algunos ejemplos de cosas que son convergentes en la distribución, pero no en la probabilidad?

5voto

Tristan Seifert Puntos 118

Voy a intentar explicar la diferencia con el simple ejemplo: la media de la muestra. Supongamos que tenemos un alcoholímetro de la muestra de variables aleatorias $\{X_i\}_{i=1}^n$. A continuación, defina la media de la muestra como $\bar{X}_n$. Como el tamaño de la muestra crece, nuestro valor de la media de la muestra de los cambios, de ahí el subíndice $n$ destacar que nuestra media de la muestra depende del tamaño de la muestra.

Tomando nota de que $\bar{X}_n$ sí es una variable aleatoria, se puede definir una secuencia de variables aleatorias, donde los elementos de la secuencia son indexados por los diferentes muestras (tamaño de la muestra es creciente), es decir, $\{\bar{X}_n\}_{n=1}^{\infty}$. La débil ley de los grandes números (WLLN) nos dice que tan largo como $E(X_1^2)<\infty$, que $$plim\bar{X}_n = \mu$$ o, equivalentemente, $$\bar{X}_n \rightarrow_P \mu$$

donde $\mu=E(X_1)$. Formalmente, la convergencia en probabilidad se define como $$\forall \epsilon>0, \lim_{n \rightarrow \infty} P(|\bar{X}_n - \mu| <\epsilon)=1. $$ En otras palabras, la probabilidad de que la estimación de estar dentro de $\epsilon$ desde el verdadero valor tiende a 1 como $n \rightarrow \infty$. La convergencia en probabilidad nos da la confianza de nuestros estimadores realizar también con muestras grandes.

La convergencia en distribución nos dicen algo muy diferente y se utiliza principalmente para la prueba de hipótesis. Bajo la misma distribución supuestos descritos anteriormente, CLT nos da que $$\sqrt{n}(\bar{X}_n-\mu) \rightarrow_D N(0,E(X_1^2)).$$ La convergencia en distribución significa que la cdf de la izquierda-el tamaño de la mano converge en todos los puntos de continuidad a la cdf de la mano derecha, es decir, $$\lim_{n \rightarrow \infty} F_n(x) = F(x),$$ donde $F_n(x)$ es la cdf de $\sqrt{n}(\bar{X}_n-\mu)$ y $F(x)$ es el cdf para un $N(0,E(X_1^2))$ de distribución. Sabiendo la limitación de la distribución nos permite poner a prueba hipótesis acerca de la media de la muestra (o cualquier estimación que se están generando).

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X