3 votos

Valor esperado y varianza de un proceso aleatorio detenido

Consideremos el proceso aleatorio en el que se siguen extrayendo muestras de [0,1] uniformemente al azar mientras la muestra actual sea mayor que la anterior. ¿Cuál es el valor esperado y la varianza del número de muestras que se extraen?

He intentado pensar en un caso discreto con la Igualdad de Wald con paso de 0,1. Sumando p * (1 - p) donde p es 0,1, 0,2 ..., es igual a 0,327, coincide con mi simulación mean=array([0.359285]), variance=array([0.05881588]) .

import numpy as np
import matplotlib.pyplot as plt

from scipy import stats

cur_num = None
M = 1000000
li =[]
for i in range(M):

    if cur_num is None:
        cur_num = np.random.uniform(0,1,1)
        tmp = 0

    while tmp < cur_num:
        tmp = cur_num
        cur_num = np.random.uniform(0,1,1)
        # print(f" while loop: {cur_num}")

    # print(f" for loop: {cur_num}")

    li.append(cur_num)

    cur_num =None

print(stats.describe(li))

## DescribeResult(nobs=10000000, minmax=(array([1.29312049e-08]), array([0.9996544])), 
## mean=array([0.359285]), variance=array([0.05881588]), skewness=array([0.44984084]), kurtosis=array([-0.76854895]))

Esto me da la idea de integrar p * (1 - p) dp de 0 a 1. Pero da 1/2 - 1/3, 0.16667, no 0.35

10voto

Foxy Puntos 46

Aunque Math SE podría ser un poco más adecuado para este, quería darle una oportunidad.

La respuesta se basa en la ley de la expectativa total, la ley de la varianza total y la relación entre el número de Euler $e$ y las series que implican la función factorial $n!$ .

En la primera mitad de la respuesta, presentaré la derivación de $E(n)$ y $Var(n)$ es decir, la media y la varianza del tiempo de parada En la segunda parte mostraré cómo derivar $E(x_n)$ y $Var(x_n)$ es decir, el valor esperado y la varianza del proceso detenido . Por último, en el adenda , proporciono la distribución completa del proceso detenido, $f(x_n)$ para $x_k$ extraídos de una distribución uniforme y de una distribución genérica.


Parte I: La distribución del tiempo de parada $n$

Dada la $n$ El sorteo $x_{n}$ del intervalo unitario $(0,1)$ aceptamos el ( $n+1$ )th sorteo $x_{n+1}$ si $x_n<x_{n+1}$ ; si no, nos detenemos en el $n$ y se dice que el proceso se detiene en $n$ con valor $x_n$ . Decimos que $n$ es el tiempo de parada.

Digamos que estamos a punto de dibujar $k$ números $x_1, x_2, \ldots x_k$ uniformemente de $(0,1)$ y ordenar los resultados en orden creciente, por ejemplo

$$ \begin{align} x_1&<x_2<\ldots<x_k\\ &\ldots\\ x_k&<x_{k-1}<\ldots<x_k \end{align} $$

Luego están $k!=k\times(k-1)\times(k-2)\ldots\times2\times1$ posibles permutaciones del orden de los sorteos, cada permutación con la misma probabilidad $1/k!$ - pero sólo una permutación representa la ordenación necesaria $x_1<x_2<\ldots<x_k$ bajo el cual el proceso aún no se ha detenido en el sorteo $k$ (por supuesto, se detendrá si $x_k>x_{k+1}$ ). Así, la probabilidad incondicional de $n\geq k$ , es decir, de dibujar al menos $k$ veces, es

$$ \begin{align} P(n\geq k)&=\frac{1}{k!} \\ \Rightarrow P(n=k)&=P(n\geq k)-P(n\geq k+1)\\ &=\frac{1}{k!}-\frac{1}{(k+1)!} \end{align} $$

Cálculo del tiempo de parada previsto

Calculamos $E(n)=\sum_k k\times P(n=k)$ reordenando los factoriales mientras tanto:

$$ \begin{align} E(n)&=\sum\limits_{k=1}^\infty \frac{k}{k!}-\frac{k}{(k+1)!}\\ &=\left(\frac{1}{1!}+\frac{2}{2!}+\frac{3}{3!}+\ldots\right)-\left(\frac{1}{2!}+\frac{2}{3!}+\frac{3}{4!}+\ldots\right)\\ &=\frac{1}{1!}+\frac{1}{2!}+\frac{1}{3!}+\ldots\\ &=\sum\limits_{k=1}^{\infty}\frac{1}{k!}\\ &=\sum\limits_{k=0}^{\infty}\frac{1}{k!}-1 \end{align} $$

En la última fila, reconocemos la definición de La constante de Euler $e=\sum_k 1/k!=2.718282\ldots$ Por lo tanto:

$$ E(n)=e-1 $$

Cálculo de la varianza del tiempo de parada

Como $Var(x)=E(x^2)-E(x)^2$ ahora tratamos de estimar $E(n^2)$ aplicando de nuevo algunos reordenamientos, y observando las relaciones con la definición de $e$ :

$$ \begin{align} E(n^2)&=\sum\limits_{k=1}^\infty k^2\times P(n=k)\\ &=\sum\limits_{k=1}^\infty\frac{k^2}{k!}-\frac{k^2}{(k+1)!}\\ &=\left(\frac{1^2}{1!}+\frac{2^2}{2!}+\frac{3^2}{3!}+\ldots\right)-\left(\frac{1^2}{2!}+\frac{2^2}{3!}+\frac{3^2}{4!}+\ldots\right)\\ &=\sum\limits_{k=1}^{\infty}\frac{k^2-(k-1)^2}{k!}\\ &=\sum\limits_{k=1}^{\infty}\frac{2k-1}{k!}\\ &=2\sum\limits_{k=1}^{\infty}\frac{k}{k!}-\left(e-1\right)\\ &=2\sum\limits_{k=0}^{\infty}\frac{1}{k!}-\left(e-1\right)\\ &=e+1 \end{align} $$

Así,

$$ \begin{align} Var(n)=&E(n^2)-E(n)^2\\ &=e+1-(e-1)^2\\ &=3e-e^2 \end{align} $$

Una simulación del tiempo de parada $n$

Simulemos esto usando R . Elijo un nivel de corte n=14 la probabilidad correspondiente es inferior a 1E-10 .

set.seed(42)
nSim <- 1E6
k    <- 14
mu <- exp(1)-1
v  <- 3*exp(1)-exp(2)
u<-sapply(1:nSim,function(i){
  x <- rle( diff( runif(k) ) > 0 )  
  1 + x$values[1] * x$lengths[1]
})

print( mean(u)- mu )
print( var(u) - v )

con salida

[1] -0.0001078285
[1] -0.0003605153

Parte II: Expectativa y varianza de $x_n$

En este caso, utilizaremos el ley de la expectativa total y el ley de la varianza total .

Expectativa de $x_n$

Comenzamos con la ley de la expectativa total, aplicándola a $x_n$ como

$$ \begin{align} E(x_n)&=E\left(E\left(x_n|n=k\right)\right)\\ &=\sum\limits_{k=1}^{\infty}E\left(x_n|n=k\right)P(n=k) \end{align} $$

Ya conocemos la distribución de $n$ , todo lo que queda es calcular $E(x_n|n=k)$ .

Para un tiempo de parada (fijo) $k$ debe sostener que $x_1\leq x_2\leq\ldots \leq x_{k-1}\leq x_k > x_{k+1}$ es decir, el $k$ de los componentes de $k+1$ dibuja representa la máximo sobre $(k+1)$ dibuja . La distribución del máximo es:

$$ \begin{align} F^{max}_{k+1}(x)&\equiv P(\max(x_1,x_2,\ldots,x_k,x_{k+1})\leq x)\\ &=P(x_1\leq x, x_2\leq x, \ldots x_{k-1}\leq x,x_{k+1}\leq x)\\ &=F(x)^{k+1}\\ &=x^{k+1} \end{align} $$

La densidad correspondiente, $f^{max}_{k+1}(x)=\partial F^{max}_{k+1}(x)/\partial x$ es $$ f^{max}_{k+1}(x)=(k+1)x^k $$

y la expectativa de $x_n$ dada la parada en $k$ es

$$ \begin{align} E(x_n|n=k)&=\int\limits_0^1 xf^{max}_{k+1}(x)\mathrm{d}x\\ &=(k+1)\int\limits_0^1 x^{k+1}\mathrm{d}x\\ &=\frac{k+1}{k+2} \end{align} $$

Ahora tenemos los dos ingredientes para la expectativa:

$$ \begin{align} E(x_n)&=\sum\limits_{k=1}^{\infty}E\left(x_n|n=k\right)P(n=k)\\ &=\sum\limits_{k=1}^{\infty}\frac{k+1}{k+2}\left(\frac{1}{k!}-\frac{1}{(k+1)!}\right)\\ &=\left(\frac{2/3}{1!}+\frac{3/4}{2!}+\frac{4/5}{3!}+\frac{5/6}{4!}+\ldots\right)-\left(\frac{2/3}{2!}+\frac{3/4}{3!}+\frac{4/5}{4!}+\frac{5/6}{5!}+\ldots\right)\\ &=0.5+\sum\limits_{k=1}^{\infty}\frac{1}{(k+2)!}\\ &=0.5+\sum\limits_{k=1}^{\infty}\frac{1}{k!}-1.5\\ &=\sum\limits_{k=1}^{\infty}\frac{1}{(k)!}-1\\ &=e-2 \end{align} $$ donde hemos reutilizado las relaciones entre la suma factorial inversa y el número de Euler, anteriormente.

Variación de $x_n$

Hacemos uso de la ley de la varianza total

$$Var(x_n)=E(Var(x_n|n=k))+Var(E(x_n|n=k))$$

y empezar con el primer término:

$$ \begin{align} E(Var(x_n|n=k))&=\sum\limits_{k=1}^{\infty}\left(E(x_n^2|n=k)-E(x_n|n_k)^2\right)P(n=k)\\ &=\sum\limits_{k=1}^{\infty}\left((n+1)\int_{x=0}^1x^2f^{max}_{k+1}(x)\mathrm{d}x-\left(\frac{k+1}{k+2}\right)^2\right)P(n=k)\\ &=\sum\limits_{k=1}^{\infty}\left(\frac{k+1}{k+3}-\left(\frac{k+1}{k+2}\right)^2\right)P(n=k) \end{align} $$

y nos detenemos aquí. Para el segundo término, obtenemos

$$ \begin{align} Var(E(x_n|n=k))&=E(E(x_n|n=k)^2)-E(E(x_n|n=k))^2\\ &=\sum_{k=1}^{\infty}\left(\frac{k+1}{k+2}\right)^2P(n=k)-\left(\sum_{k=1}^{\infty}\frac{k+1}{k+2}P(n=k)\right)^2\end{align} $$

Combinando ambos términos se obtiene

$$ \begin{align} Var(x_n)&=E(Var(x_n|n=k))+Var(E(x_n|n=k))\\ &=\sum\limits_{k=1}^{\infty}\frac{k+1}{k+3}P(n=k)-\left(\sum_{k=1}^{\infty}\frac{k+1}{k+2}P(n=k)\right)^2 \end{align} $$

que, después de un poco más de reordenación, da como resultado

$$ Var(x_n)=2+2e-e^2 $$

Un estudio de simulación de $x_n$

set.seed(42)
nSim <- 1e6
k    <- 14

u <- sapply(1:nSim,function(i){
  x <- runif(k)
  z <- rle(diff(x)>0)
  x[1 + z$values[1]*z$lengths[1]]
})
cat("Variable  : "  ,"\t", "simulation", "\t", "theoretical"    , "\n")
cat("mean(x_n) : "  ,"\t",  mean(u)    , "\t", exp(1)-2         , "\n")
cat("var(x_n)  : "  ,"\t",  var(u)     , "\t", 2+2*exp(1)-exp(2), "\n")

lo que resulta en

Variable  :      simulation      theoretical 
mean(x_n) :      0.7182006       0.7182818 
var(x_n)  :      0.04752103      0.04750756

Anexo

Incluso podemos producir la distribución de $x_n$ en forma cerrada combinando el PMF de $n$ y la densidad $f^{max}_{k+1}(x)$ :

$$ \begin{align} f(x)&=\sum\limits_{k=1}^{\infty}f(x_n|n=k)P(n=k)\\ &=\sum\limits_{k=1}^{\infty}(k+1)(x)^k\left(\frac{1}{k!}-\frac{1}{(k+1)!}\right)\\ &=\sum\limits_{k=1}^{\infty}(x)^k\frac{1}{(k-1)!}\\ &=x\sum\limits_{k=0}^{\infty}(x)^k\frac{1}{k!}\\ &=xe^{x} \end{align} $$

Por el mismo razonamiento podemos demostrar que la distribución de $x_n$ dadas las extracciones de una distribución continua $\Phi$ (y la correspondiente densidad $\phi$ ) es igual a

$$ f(x)=\phi(x)\Phi(x)e^{\Phi(x)} $$

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X