1 votos

Regresión de la integral estocástica sobre el proceso de Wiener

Esta pregunta es una continuación de la siguiente: expectativa condicional de la integral estocástica así que no me repetiré en cuanto a los supuestos y la notación.

Utilizando el enfoque del puente browniano, sabemos que ${\mathbb E}[W_t|W_T]=\frac{t}{T}W_T$ . Esto es compatible con una descomposición de regresión de $W_t$ en $W_T$ como por ejemplo:

$$ W_t = \beta^W_t W_T + \epsilon $$ para t $\leq T$ , donde $\epsilon \sim \mathcal{N}(0,1)$ es un ruido independiente y $\beta^W_t$ puede interpretarse como un estimador OLS estándar, de hecho

$$ \beta^W_t = \frac{{\mathbb Cov}(W_t,W_T)}{{\mathbb Var}(W_T)} = \frac{{\mathbb E}[W_t W_T]}{{\mathbb E}[W^2_T]} = \frac{t}{T} $$

En cuestión expectativa condicional de la integral estocástica demostramos que la expectativa condicional de la integral estocástica de una función determinista $\sigma_t$ $$ M_t = \int_0^t \sigma_s dW_s $$ con respecto al proceso de Wiener en $T \geq t$ puede escribirse como

$$ {\mathbb E}[M_t|W_T] = \frac{\int^t_0 \sigma_s ds}{T} W_T $$

Por analogía, ampliamos la descomposición de la regresión anterior como

$$ M_t = \beta^M_t W_T + \epsilon $$

con

$$ \beta^M_t = \frac{\int^t_0 \sigma_s ds}{T} $$

Ahora, $\beta^M_t$ puede interpretarse correctamente como un estimador OLS siempre que

$$ \beta^M_t = \frac{{\mathbb Cov}(M_t,W_T)}{{\mathbb Var}(W_T)} = \frac{\int^t_0 \sigma_s ds}{T} $$

es decir, mientras la covarianza entre la integral estocástica $M_t$ y el Wiener $W_T$ es

$$ {\mathbb Cov}(M_t,W_T) = \int^t_0 \sigma_s ds $$

que es la conjetura que nos gustaría probar.

1voto

JeremyKun Puntos 1221

Por definición,

$$ {\mathbb Cov}(M_t,W_T) = {\mathbb E}[M_t W_T] - {\mathbb E}[M_t] {\mathbb E}[W_T] = {\mathbb E}[M_t W_T] $$

desde ${\mathbb E}[M_t] = {\mathbb E}[W_T] = 0 $ . Consideramos ahora la representación de $M_t$ en términos de $W_t$ como se sugiere en esta respuesta

$$ M_t = \sigma_t W_t - \int^t_0 \dot{\sigma}_s W_s ds $$

donde estamos asumiendo que $\sigma_t$ es lo suficientemente regular como para que $\dot{\sigma}_t \stackrel{def}{=}\frac{d \sigma}{dt}$ está bien definida. Podemos vivir con eso.

Por lo tanto, podemos escribir ( $t \leq T)$ :

\begin{align} {\mathbb E}[M_tW_T] & = {\mathbb E}\left[\left(\sigma_t W_t - \int^t_0 \dot{\sigma}_s W_s ds \right) W_T \right] \\ & = \sigma_t {\mathbb E}[W_t W_T] - \int^t_0 \dot{\sigma}_s {\mathbb E}[W_s W_T] ds \\ & = \sigma_t t - \int^t_0 \dot{\sigma}_s s ds \\ & = \sigma_t t - \left[\sigma_t t - \int^t_0 \sigma_s \cdot 1 ds \right] \\ &= \int^t_0 \sigma_s ds \end{align}

donde se ha utilizado la integración por partes en la penúltima línea. Esto demuestra la conjetura.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X