Así, en Hull (2012) el punto principal es que $\Delta x^2 = b^2 \epsilon ^2 \Delta t + $ términos de orden superior $ $ tiene un término de orden $\Delta t$ y no se puede ignorar ya que el movimiento browniano presenta la variación cuadrática de $\Delta t$ . Mi pregunta es ahora qué hace $\epsilon ^2$ corresponden a. Cochrane (2005) señala que $dz^2 = dt$ , así que estaba confundido desde que Hull define $dz$ como $\epsilon \sqrt dt $ . Por lo tanto, $dz^2$ implicaría $\epsilon^2 dt $ . Como $\epsilon$ se distribuye normalmente la media sería cero y la varianza uno esto implicaría en $\Delta x^2 = b^2 \epsilon ^2 \Delta t$ que $b^2 \epsilon ^2 \Delta t$ sería en el límite como $\Delta t$ va a cero igual a $b^2 \Delta t$ como $E(\epsilon^2)$ =1. Hull argumenta que la varianza de $\epsilon \Delta t $ se volvería demasiado pequeño y por lo tanto, perdería su componente estocástica y entonces sería igual a su valor esperado en el límite, pero no entendí bien eso. Mi única explicación sería que $\epsilon^2$ es igual a uno, pero no es que $E(\epsilon^2) = 1$ ?
Respuestas
¿Demasiados anuncios?La teoría detrás del razonamiento real es un poco más complicada que la cobertura de Hull, pero manteniéndose en el razonamiento simple, la diferencia se reduce a lo siguiente:
Los incrementos brownianos en el intervalo $dt$ se distribuyen normalmente con media cero y varianza $dt$ Así que en términos de distribución, puedes expresar los incrementos en términos de una normal estándar: $dw_t \sim \epsilon \, \sqrt{dt}$ . Se puede comprobar fácilmente: una constante por una normal es normal, la media de $\sqrt{dt}$ veces una normal estándar es igual a cero, y la varianza es igual a $dt \times \mathrm{variance \, of\, standard \, normal} =dt\times 1=dt$ .
$dw_t$ y $\epsilon$ son variables aleatorias, por lo que $dw_t^2=dt$ significa esta igualdad en algún sentido probabilístico/limitante. Se puede tomar esto como una varianza, o $E\left[dw_t^2\right]$ porque los medios de $dw_t$ es cero. Pero en realidad esta igualdad se mantiene en un sentido mucho más fuerte - piense en un camino browniano simulado, y si deja que el número de intervalos sea muy grande, verá que la suma de los cuadrados de los incrementos brownianos se hace igual a $dt$ .
Pero para el uso diario, puedes asumir $dw_t \sim \epsilon \, \sqrt{dt}$ y $dw_t^2 =dt$ , pensando en $dw_t^2$ como varianza o suma de los cuadrados de los incrementos de brownianos cuando el intervalo se divide en un número muy grande de subintervalos.
Creo que la pregunta también saca a relucir una confusión común con la notación. Creo que es increíblemente desafortunado utilizar una notación como $dW(t)$ (a menos que forme parte de una integral estocástica), y me molesta cuando veo que se utiliza en los libros de texto.
La definición de movimiento browniano es implícita y dice así:
(i) $W(t=0) = 0$
(ii) $W(t)$ es (casi seguramente) continua
(iii) $W(t)$ tiene un incremento independiente
(iv) Los incrementos $W(t) - W(s): t\geq s \geq0$ se distribuyen normalmente con media cero y varianza = (t-s) .
Qué desviación hace $dW(t)$ ¿tiene? En mi opinión es difícil discutir eso. ¿Realmente queremos decir $W(dt)$ (para que la varianza sea infinitesimal)? O más bien $W(\delta t)$ por lo que la varianza es $\delta t$ ¿es decir, muy pequeño? Nunca he visto a un profesor serio utilizar la notación $dW(t)$ (aparte de las integrales estocásticas). Creo que discutir la cantidad $dW(t)$ fuera de las integrales estocásticas no tiene sentido. En su lugar, utilicemos $W(\delta t)$ , en cuyo caso podemos discutir su distribución.
Volviendo a la pregunta: En Hull, $Z$ se refiere confusamente a $W$ y $\epsilon$ se refiere a la variable aleatoria Normal Estándar.
Así que cuando Hull escribe $dZ = \epsilon \sqrt(dt)$ , lo que realmente quiere decir es que $Z(\delta t)$ es igual a en la distribución a $\epsilon \sqrt(\delta t)$ . Ahora:
$$ \mathbb{E}\left[\epsilon \sqrt{\delta t}\right]=0$$
$$\mathbb{E}[(\epsilon \sqrt{\delta t})^2]=Var(\epsilon \sqrt{\delta t})=\delta t Var(\epsilon)= \delta t$$
$$Var\left((\epsilon \sqrt{\delta t})^2\right) = Var \left( \epsilon^2 \delta t\right)= \delta t^2 Var \left( \epsilon^2 \right)$$
Arriba, la primera igualdad es verdadera porque trivialmente $\mathbb{E}[\epsilon]=0$ por la definición de variable normal estándar. La segunda igualdad es cierta porque trivialmente $Var(\epsilon)=1$ , de nuevo por definición de variable normal estándar. La tercera igualdad es cierta porque para cualquier variable aleatoria $X$ , $Var(aX)=a^2Var(X)$ .
En la tercera igualdad, se puede ver que independientemente de lo que $Var \left( \epsilon^2 \right)$ en realidad es, el término $Var \left( \epsilon^2 \delta t\right)$ va a ser de orden $\delta t^2$ .
Así que realmente, cuando alguien escribe $dz^2 = dt$ En realidad quieren decir que $Z(\delta t)^2$ converge a una cantidad no estocástica cuando $\delta t$ se hace realmente pequeño, porque la Varianza es del orden $\delta t^2$ por lo que la varianza converge rápidamente a cero (y la variable aleatoria sin varianza ya no es aleatoria). El valor esperado de $Z(\delta t)^2$ es $\delta t$ como se muestra arriba, así que en conclusión, $Z(\delta t)^2$ converge rápidamente a la variable no aleatoria $\delta t$ cuando $\delta t$ se acerca arbitrariamente a cero.