3 votos

Hamilton-Jacobi-Bellman ecuación en el Modelo de Merton

Estoy tratando de estudiar el Modelo de Merton para la optimización del portafolio y el documento no explica un muy importante paso : si $$V(t,x)=\sup\{E[U(X_T(\phi))~|~X_t=x]~~ |~~\phi~~\text{an admissible trading strategy}\}$$ es el valor de la función, entonces, "en virtud de una cierta regularidad supuestos", se va a satisfacer el Hamilton-Jacobi-Bellman ecuación.

¿Cuáles son esos regularidad supuestos ? ¿Cómo podemos probar ?

4voto

MayahanaMouse Puntos 71

Este es un problema de control óptimo.

Considere la posibilidad de una auto-financiación de la estrategia de $\pi := (\pi_s)_{s\in[t,T]}$ sobre el horizonte $[t,T]$ consiste en, durante cada uno de los infinitesimales período de tiempo $[t,t+dt[$, la inversión de una fracción $\pi_t$ de la riqueza en un activo arriesgado $S_t$ y la colocación de la parte restante en el activo libre de riesgo $B_t$. Dada la siguiente dinámica $$ dS_t = S_t(\mu_t dt + \sigma_t dW_t)$$ $$ dB_t = B_t(r_t dt) $$ a partir de una inicial riqueza $x$ es, la riqueza en tiempo de $t$ de un inversor siguiendo la estrategia de $\pi$ será $$ X_t^{\pi,x} = \frac{ \pi_t X_t^{\pi,x} }{ S_t } S_t + \frac{ (1-\pi_t) X_t^{\pi,x} }{B_t} B_t $$ y su evolución se regirá por las siguientes SDE $$ dX_t^{\pi,x} = X^{\pi,x} \left[ (r_t + \pi_t(\mu_t-r_t))dt + \pi_t \sigma_t dW_t \right]$$

Considerar el valor de la función $$ V(t,x;(\pi_s)_{s\in[t,T]}) = \Bbb{E}_t \left[ U(X_T^{\pi,x}) \right] $$

El óptimo control de la $\pi_t^*$ es el proceso estocástico que tal $$ (\pi^*_s)_{s \in [t,T]} = \text{argsup}_{(\pi_s)_{s \in [t,T]}} V(t,x;(\pi_s)_{s \in [t,T]}) $$

mientras que el coste óptimoes $$ V(t,x) = \Bbb{E}_t \left[ U(X_T^{\pi^*,x}) \right] $$

El coste óptimo de la función resuelve el Hamilton-Jacobi-Bellman ecuaciones.

La prueba puede ser obtenida por ver el problema como un Problema de Programación Dinámica , y depender de Bellman principio de optimalidad (ver $(1)$ por debajo).

Como @noob2 menciona, en algún punto de la Itô diferencial del coste óptimo de $V(t,x)$ aparece. Por lo tanto, la regularidad de las condiciones son las condiciones habituales de Itô de integración, tanto por $X_t$ e $V(t,x)$.

Algunos intuición \begin{align} V(t,x) &= \Bbb{E}_t \left[ U(X_T^{\pi^*,x}) \right] \\ &= \Bbb{E}_t \left[ \Bbb{E}_{t+dt} \left[ U\left(X_T^{\pi^*,x+dX_t(\pi^*_t)}\right) \right] \right] \\ &= \Bbb{E}_t \left[ V(t+dt, x+dX_t(\pi^*_t)) \right] \tag{1}\\ &= \sup_{\pi_t} \Bbb{E}_t \left[ V(t+dt, x+dX_t(\pi_t)) \right]\\ &= \sup_{\pi_t} \Bbb{E}_t \left[ V(t,x) + \frac{dV(t,x)}{dt} dt + \frac{dV(t,x)}{dx}dX_t + \frac{d^2V(t,x)}{dx^2}d\langle X \rangle_t \right] \\ &= V(t,x) + \frac{dV(t,x)}{dt} dt + \sup_{\pi_t} \left( \frac{dV(t,x)}{dx} x (r_t + \pi_t(\mu_t-r_t)) + \frac{1}{2} \frac{d^2V(t,x)}{dx^2} x^2 \pi_t^2 \sigma_t^2 \right) dt \end{align} por lo tanto, finalmente, $$ \frac{dV(t,x)}{dt} + \sup_{\pi_t} \left( \frac{dV(t,x)}{dx} x (r_t + \pi_t(\mu_t-r_t)) + \frac{1}{2} \frac{d^2V(t,x)}{dx^2} x^2 \pi_t^2 \sigma_t^2 \right) = 0 $$

[editar]

El DPP punto de vista consiste en ver el óptimo control de la $(\pi^*_s)_{s \in [t,T]}$ como la "unión" de lo que usted elige hacer más de $[t,t+dt[$ y lo que usted hace a $[t+dt,T[$. De manera informal: $$ (\pi^*_s)_{s \in [t,T]} = \pi^*_t \cup (\pi^*_s)_{s \in [t+dt,T]} $$

En este punto, de optimalidad de Bellman principio nos indica que la restricción del control óptimo $(\pi^*_s)_{s \in [t+dt,T]}$ es en sí misma la política óptima en el horizonte de $[t+dt,T[$. Esta es la razón por la en $(1)$ puede escribir que $$ \Bbb{E}_{t+dt} \left[ U\left(X_T^{\pi^*,x+dX_t(\pi^*_t)}\right) \right] = V(t+dt,x+dX_t(\pi^*_t)) $$ con $V$ el costo óptimo (y no simplemente el valor de la función).

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X