Pasemos a la ecuación diferencial estocástica (EDE):
$$ dF=\left[\frac{\partial F}{\partial t}+\mu \frac{\partial F}{\partial x}+\frac{1}{2}\sigma^2 \frac{\partial^2 F}{\partial x^2} \right]dt + \sigma \frac{\partial F}{\partial x}dW $$
¿Qué hace esta ecuación en realidad ¿Representar? Sugiere que un cambio en $F$ (representado por $\Delta F$ ) equivale a un cambio en $t$ veces algunos derivados en $F$ (representado por $[\cdots]\Delta t$ ) más el cambio en el movimiento browniano $W$ por otra derivada (la parte $[\cdots]\Delta W$ ). Esto también sugiere que estamos ante una ecuación diferencial, ya que estamos equiparando pequeños cambios en $t$ y $W$ a los cambios en $F$ .
Sin embargo, técnicamente hablando esto no tiene sentido ya que el movimiento browniano $W$ ¡no es diferenciable! En realidad no podemos interpretarla como una ecuación "diferencial" en el sentido habitual (determinista), porque la derivada $\frac{dW}{dt}$ no existe.
En cambio, esta ecuación diferencial es en realidad una notación abreviada. En definición es la abreviatura de:
$$F(T, X(T)) - F(0, X(0)) = \int_0^T \left[\frac{\partial F}{\partial t}+\mu \frac{\partial F}{\partial x}+\frac{1}{2}\sigma^2 \frac{\partial^2 F}{\partial x^2} \right] dt + \int_0^T \sigma \frac{\partial F}{\partial x} dW_s$$
La EDE no es más que una ecuación integral disfrazada. Parece que se obtiene integrando la EDE. Pero, de nuevo, eso es sólo porque la SDE está realmente definida para ser esta ecuación integral. La razón es que podemos integrar los movimientos brownianos, pero no podemos diferenciarlos. Téngalo en cuenta.
La integral $\int[\cdots]dW_s$ es un objeto difícil de interpretar. Por ejemplo, no está definido en el sentido habitual de Riemann. La integral sí mismo es en realidad una variable aleatoria. Podemos generar un camino $W(t)$ , luego realizar la integral y así obtener una muestra de la distribución de esta integral.
Desgraciadamente, en general no se puede manipular o resolver este tipo de integrales como se haría con una integral ordinaria. Así que determinar su distribución es en general muy difícil. Tienen una propiedad muy importante, a la que volveré.
Ahora el siguiente paso se obtiene haciendo uso de la EDP original. Suponemos que $F$ se define para satisfacer esta ecuación. Ahora, primero voy a suponer $r=0$ . Lo comentaré más adelante. Esto hace que el argumento sea un poco más fácil.
Por lo tanto, tenemos:
$$\int_0^T \left[\frac{\partial F}{\partial t}+\mu \frac{\partial F}{\partial x}+\frac{1}{2}\sigma^2 \frac{\partial^2 F}{\partial x^2} \right]dt = 0$$
y esto da:
$$ F(T, X(T)) = F(0, X(0)) + \int_0^T \sigma \frac{\partial F}{\partial x}dW_t$$
Ya casi hemos terminado. El siguiente paso es tomar el valor de la expectativa con respecto a los caminos generados $W(t)$ (en el intervalo $[0,T]$ ). Aquí viene la importante propiedad de las integrales estocásticas que mencioné antes:
$$ E\Big[\int_0^T \sigma \frac{\partial F}{\partial x}dW_t \Big] = 0$$
El valor de la expectativa es simplemente cero. La media de este tipo de integrales desaparece. ¿Por qué? Bueno, heurísticamente la integral es sólo una suma sobre pequeños "cambios" en $\Delta W_t$ ponderado por lo que sea que estemos integrando. Dado que el $\Delta W_t$ se distribuyen normalmente con media cero, así que es como si sumáramos un montón de distribuciones normales con media cero. La media de esta suma también es cero. La demostración formal es, por supuesto, más complicada, pero se entiende.
Volviendo a nuestra ecuación obtenemos:
$$ E[F(T, X(T))] = E[F(0, X(0))] + 0 $$
donde el $+0$ era la integral antes. Suponemos que estamos viendo desde $t=0$ , por lo que conocemos el valor de $F$ en este momento. Por lo tanto:
$$F(0, X(0)) = E[F(T, X(T))]$$ .
Y ahí tenemos nuestra propiedad martingala. Sólo como una nota lateral, que técnicamente escribiría esto como:
$$F(0, X(0)) = E[F(T, X(T))|\mathcal{F}_{t=0}]$$ .
donde $\mathcal{F}_{t=0}$ se denomina filtración. Básicamente significa que el camino $X(t)$ es completamente conocido / fijado para $t<= 0$ .
Ahora, he puesto $r=0$ en la derivación anterior. Esto no es realmente necesario. También podríamos establecer $G=e^{-rt}F$ para "absorber" el $rF$ en la EDP original (o darle la vuelta: definir $F=e^{rt} G$ y sustituirla en la EDP. Se obtiene la misma EDP, pero escrita en términos de $G$ y no $rG$ término a la derecha). Mi derivación se aplica entonces también a $G$ . La expresión final $G(0, X(0)) = E[G(T, X(T))]$ puede transformarse de nuevo en $F$ por el subibaja $G(t)=e^{-rt}F(t)$ dando:
$$F(0, X(0)) = e^{-rT}E[F(T, X(T))]$$
Si quieres saber más, te sugiero que mires un libro como el de Shreve para estudiar las propiedades del cálculo estocástico y la integración estocástica.
Sin embargo, la conclusión es la misma.