Aunque Math SE podría ser un poco más adecuado para este, quería darle una oportunidad.
La respuesta se basa en la ley de la expectativa total, la ley de la varianza total y la relación entre el número de Euler $e$ y las series que implican la función factorial $n!$ .
En la primera mitad de la respuesta, presentaré la derivación de $E(n)$ y $Var(n)$ es decir, la media y la varianza del tiempo de parada En la segunda parte mostraré cómo derivar $E(x_n)$ y $Var(x_n)$ es decir, el valor esperado y la varianza del proceso detenido . Por último, en el adenda , proporciono la distribución completa del proceso detenido, $f(x_n)$ para $x_k$ extraídos de una distribución uniforme y de una distribución genérica.
Parte I: La distribución del tiempo de parada $n$
Dada la $n$ El sorteo $x_{n}$ del intervalo unitario $(0,1)$ aceptamos el ( $n+1$ )th sorteo $x_{n+1}$ si $x_n<x_{n+1}$ ; si no, nos detenemos en el $n$ y se dice que el proceso se detiene en $n$ con valor $x_n$ . Decimos que $n$ es el tiempo de parada.
Digamos que estamos a punto de dibujar $k$ números $x_1, x_2, \ldots x_k$ uniformemente de $(0,1)$ y ordenar los resultados en orden creciente, por ejemplo
$$ \begin{align} x_1&<x_2<\ldots<x_k\\ &\ldots\\ x_k&<x_{k-1}<\ldots<x_k \end{align} $$
Luego están $k!=k\times(k-1)\times(k-2)\ldots\times2\times1$ posibles permutaciones del orden de los sorteos, cada permutación con la misma probabilidad $1/k!$ - pero sólo una permutación representa la ordenación necesaria $x_1<x_2<\ldots<x_k$ bajo el cual el proceso aún no se ha detenido en el sorteo $k$ (por supuesto, se detendrá si $x_k>x_{k+1}$ ). Así, la probabilidad incondicional de $n\geq k$ , es decir, de dibujar al menos $k$ veces, es
$$ \begin{align} P(n\geq k)&=\frac{1}{k!} \\ \Rightarrow P(n=k)&=P(n\geq k)-P(n\geq k+1)\\ &=\frac{1}{k!}-\frac{1}{(k+1)!} \end{align} $$
Cálculo del tiempo de parada previsto
Calculamos $E(n)=\sum_k k\times P(n=k)$ reordenando los factoriales mientras tanto:
$$ \begin{align} E(n)&=\sum\limits_{k=1}^\infty \frac{k}{k!}-\frac{k}{(k+1)!}\\ &=\left(\frac{1}{1!}+\frac{2}{2!}+\frac{3}{3!}+\ldots\right)-\left(\frac{1}{2!}+\frac{2}{3!}+\frac{3}{4!}+\ldots\right)\\ &=\frac{1}{1!}+\frac{1}{2!}+\frac{1}{3!}+\ldots\\ &=\sum\limits_{k=1}^{\infty}\frac{1}{k!}\\ &=\sum\limits_{k=0}^{\infty}\frac{1}{k!}-1 \end{align} $$
En la última fila, reconocemos la definición de La constante de Euler $e=\sum_k 1/k!=2.718282\ldots$ Por lo tanto:
$$ E(n)=e-1 $$
Cálculo de la varianza del tiempo de parada
Como $Var(x)=E(x^2)-E(x)^2$ ahora tratamos de estimar $E(n^2)$ aplicando de nuevo algunos reordenamientos, y observando las relaciones con la definición de $e$ :
$$ \begin{align} E(n^2)&=\sum\limits_{k=1}^\infty k^2\times P(n=k)\\ &=\sum\limits_{k=1}^\infty\frac{k^2}{k!}-\frac{k^2}{(k+1)!}\\ &=\left(\frac{1^2}{1!}+\frac{2^2}{2!}+\frac{3^2}{3!}+\ldots\right)-\left(\frac{1^2}{2!}+\frac{2^2}{3!}+\frac{3^2}{4!}+\ldots\right)\\ &=\sum\limits_{k=1}^{\infty}\frac{k^2-(k-1)^2}{k!}\\ &=\sum\limits_{k=1}^{\infty}\frac{2k-1}{k!}\\ &=2\sum\limits_{k=1}^{\infty}\frac{k}{k!}-\left(e-1\right)\\ &=2\sum\limits_{k=0}^{\infty}\frac{1}{k!}-\left(e-1\right)\\ &=e+1 \end{align} $$
Así,
$$ \begin{align} Var(n)=&E(n^2)-E(n)^2\\ &=e+1-(e-1)^2\\ &=3e-e^2 \end{align} $$
Una simulación del tiempo de parada $n$
Simulemos esto usando R
. Elijo un nivel de corte n=14
la probabilidad correspondiente es inferior a 1E-10
.
set.seed(42)
nSim <- 1E6
k <- 14
mu <- exp(1)-1
v <- 3*exp(1)-exp(2)
u<-sapply(1:nSim,function(i){
x <- rle( diff( runif(k) ) > 0 )
1 + x$values[1] * x$lengths[1]
})
print( mean(u)- mu )
print( var(u) - v )
con salida
[1] -0.0001078285
[1] -0.0003605153
Parte II: Expectativa y varianza de $x_n$
En este caso, utilizaremos el ley de la expectativa total y el ley de la varianza total .
Expectativa de $x_n$
Comenzamos con la ley de la expectativa total, aplicándola a $x_n$ como
$$ \begin{align} E(x_n)&=E\left(E\left(x_n|n=k\right)\right)\\ &=\sum\limits_{k=1}^{\infty}E\left(x_n|n=k\right)P(n=k) \end{align} $$
Ya conocemos la distribución de $n$ , todo lo que queda es calcular $E(x_n|n=k)$ .
Para un tiempo de parada (fijo) $k$ debe sostener que $x_1\leq x_2\leq\ldots \leq x_{k-1}\leq x_k > x_{k+1}$ es decir, el $k$ de los componentes de $k+1$ dibuja representa la máximo sobre $(k+1)$ dibuja . La distribución del máximo es:
$$ \begin{align} F^{max}_{k+1}(x)&\equiv P(\max(x_1,x_2,\ldots,x_k,x_{k+1})\leq x)\\ &=P(x_1\leq x, x_2\leq x, \ldots x_{k-1}\leq x,x_{k+1}\leq x)\\ &=F(x)^{k+1}\\ &=x^{k+1} \end{align} $$
La densidad correspondiente, $f^{max}_{k+1}(x)=\partial F^{max}_{k+1}(x)/\partial x$ es $$ f^{max}_{k+1}(x)=(k+1)x^k $$
y la expectativa de $x_n$ dada la parada en $k$ es
$$ \begin{align} E(x_n|n=k)&=\int\limits_0^1 xf^{max}_{k+1}(x)\mathrm{d}x\\ &=(k+1)\int\limits_0^1 x^{k+1}\mathrm{d}x\\ &=\frac{k+1}{k+2} \end{align} $$
Ahora tenemos los dos ingredientes para la expectativa:
$$ \begin{align} E(x_n)&=\sum\limits_{k=1}^{\infty}E\left(x_n|n=k\right)P(n=k)\\ &=\sum\limits_{k=1}^{\infty}\frac{k+1}{k+2}\left(\frac{1}{k!}-\frac{1}{(k+1)!}\right)\\ &=\left(\frac{2/3}{1!}+\frac{3/4}{2!}+\frac{4/5}{3!}+\frac{5/6}{4!}+\ldots\right)-\left(\frac{2/3}{2!}+\frac{3/4}{3!}+\frac{4/5}{4!}+\frac{5/6}{5!}+\ldots\right)\\ &=0.5+\sum\limits_{k=1}^{\infty}\frac{1}{(k+2)!}\\ &=0.5+\sum\limits_{k=1}^{\infty}\frac{1}{k!}-1.5\\ &=\sum\limits_{k=1}^{\infty}\frac{1}{(k)!}-1\\ &=e-2 \end{align} $$ donde hemos reutilizado las relaciones entre la suma factorial inversa y el número de Euler, anteriormente.
Variación de $x_n$
Hacemos uso de la ley de la varianza total
$$Var(x_n)=E(Var(x_n|n=k))+Var(E(x_n|n=k))$$
y empezar con el primer término:
$$ \begin{align} E(Var(x_n|n=k))&=\sum\limits_{k=1}^{\infty}\left(E(x_n^2|n=k)-E(x_n|n_k)^2\right)P(n=k)\\ &=\sum\limits_{k=1}^{\infty}\left((n+1)\int_{x=0}^1x^2f^{max}_{k+1}(x)\mathrm{d}x-\left(\frac{k+1}{k+2}\right)^2\right)P(n=k)\\ &=\sum\limits_{k=1}^{\infty}\left(\frac{k+1}{k+3}-\left(\frac{k+1}{k+2}\right)^2\right)P(n=k) \end{align} $$
y nos detenemos aquí. Para el segundo término, obtenemos
$$ \begin{align} Var(E(x_n|n=k))&=E(E(x_n|n=k)^2)-E(E(x_n|n=k))^2\\ &=\sum_{k=1}^{\infty}\left(\frac{k+1}{k+2}\right)^2P(n=k)-\left(\sum_{k=1}^{\infty}\frac{k+1}{k+2}P(n=k)\right)^2\end{align} $$
Combinando ambos términos se obtiene
$$ \begin{align} Var(x_n)&=E(Var(x_n|n=k))+Var(E(x_n|n=k))\\ &=\sum\limits_{k=1}^{\infty}\frac{k+1}{k+3}P(n=k)-\left(\sum_{k=1}^{\infty}\frac{k+1}{k+2}P(n=k)\right)^2 \end{align} $$
que, después de un poco más de reordenación, da como resultado
$$ Var(x_n)=2+2e-e^2 $$
Un estudio de simulación de $x_n$
set.seed(42)
nSim <- 1e6
k <- 14
u <- sapply(1:nSim,function(i){
x <- runif(k)
z <- rle(diff(x)>0)
x[1 + z$values[1]*z$lengths[1]]
})
cat("Variable : " ,"\t", "simulation", "\t", "theoretical" , "\n")
cat("mean(x_n) : " ,"\t", mean(u) , "\t", exp(1)-2 , "\n")
cat("var(x_n) : " ,"\t", var(u) , "\t", 2+2*exp(1)-exp(2), "\n")
lo que resulta en
Variable : simulation theoretical
mean(x_n) : 0.7182006 0.7182818
var(x_n) : 0.04752103 0.04750756
Anexo
Incluso podemos producir la distribución de $x_n$ en forma cerrada combinando el PMF de $n$ y la densidad $f^{max}_{k+1}(x)$ :
$$ \begin{align} f(x)&=\sum\limits_{k=1}^{\infty}f(x_n|n=k)P(n=k)\\ &=\sum\limits_{k=1}^{\infty}(k+1)(x)^k\left(\frac{1}{k!}-\frac{1}{(k+1)!}\right)\\ &=\sum\limits_{k=1}^{\infty}(x)^k\frac{1}{(k-1)!}\\ &=x\sum\limits_{k=0}^{\infty}(x)^k\frac{1}{k!}\\ &=xe^{x} \end{align} $$
Por el mismo razonamiento podemos demostrar que la distribución de $x_n$ dadas las extracciones de una distribución continua $\Phi$ (y la correspondiente densidad $\phi$ ) es igual a
$$ f(x)=\phi(x)\Phi(x)e^{\Phi(x)} $$