Al estudiar el problema de maximización de la utilidad esperada en el modelo de Merton, estoy teniendo algunas dificultades.
Dejemos que $t$ ser una hora de inicio, $T$ el Tiempo finito final.
Lo definimos, \begin {Edición} V(t,x)= \underset { \pi \in A}{ \sup }\{ \mathbb {E} \left [U(X_T( \pi )) \right ] |X_t=x\} \end {ecuación} Donde $A$ es el conjunto de estrategias comerciales admisibles. Podemos demostrar que $V$ satisface ( Ecuación de Hamilton-Jacobi-Bellman en el modelo de Merton ) \begin {Ecuación} \frac {dV(t,x)}{dt} + \sup_ { \pi_t } \left ( \frac {dV(t,x)}{dx} x (r+ \pi_t ( \mu -r)) + \frac {1}{2} \frac {d^2V(t,x)}{dx^2} x^2 \pi_t ^2 \sigma ^2 \right ) = 0 \end {Ecuación}
En la literatura (ver abajo la referencia), se dice que $\textit{"a candidate for the optimal control is obtained from the first-order condition}$ $\textit{for the maximum in the HJB equation is :"}$ \begin {Ecuación} \hat { \pi }(t,x)=- \frac { \mu -r}{ \sigma ^2} \frac { \frac {dV}{dx}}{x \frac {d^2V}{dx^2}}(t,x) \end {Ecuación}
En este punto, tengo dos preguntas:
1/ ¿Cómo podemos obtener / demostrar este resultado?
2/ No entiendo por qué $V$ está realmente presente en $\hat{\pi}$ Por definición, ¿no es V un sup sobre todos los posibles $\pi$ ? ¿No debería $\hat{\pi}$ dependen de todo lo que no sea $V$ ?
Gracias, chicos.
Huyen Pham. Métodos de optimización en la gestión de carteras y opciones cobertura de opciones
0 votos
¿Conoce la programación de Dynamoc? En el enfoque de Bellman para los problemas de decisión dinámicos hay dos pasos, primero se encuentra la "función de valor óptimo" $V^*$ que satisface la EDP anterior. Una vez que se tiene esto (analítica o numéricamente) se puede encontrar $\hat{\pi}$ la "función de decisión óptima" que le indica qué decisión debe tomar en el momento $t$ si está en el estado $x$ . Al tomar decisiones de acuerdo con esta función en todo momento, se garantiza que el resultado será el mejor posible, es decir $V^*(t,x)$ .