Este es un problema de control óptimo.
Considere la posibilidad de una auto-financiación de la estrategia de $\pi := (\pi_s)_{s\in[t,T]}$ sobre el horizonte $[t,T]$ consiste en, durante cada uno de los infinitesimales período de tiempo $[t,t+dt[$, la inversión de una fracción $\pi_t$ de la riqueza en un activo arriesgado $S_t$ y la colocación de la parte restante en el activo libre de riesgo $B_t$. Dada la siguiente dinámica
$$ dS_t = S_t(\mu_t dt + \sigma_t dW_t)$$
$$ dB_t = B_t(r_t dt) $$
a partir de una inicial riqueza $x$ es, la riqueza en tiempo de $t$ de un inversor siguiendo la estrategia de $\pi$ será
$$ X_t^{\pi,x} = \frac{ \pi_t X_t^{\pi,x} }{ S_t } S_t + \frac{ (1-\pi_t) X_t^{\pi,x} }{B_t} B_t $$
y su evolución se regirá por las siguientes SDE
$$ dX_t^{\pi,x} = X^{\pi,x} \left[ (r_t + \pi_t(\mu_t-r_t))dt + \pi_t \sigma_t dW_t \right]$$
Considerar el valor de la función
$$ V(t,x;(\pi_s)_{s\in[t,T]}) = \Bbb{E}_t \left[ U(X_T^{\pi,x}) \right] $$
El óptimo control de la $\pi_t^*$ es el proceso estocástico que tal
$$ (\pi^*_s)_{s \in [t,T]} = \text{argsup}_{(\pi_s)_{s \in [t,T]}} V(t,x;(\pi_s)_{s \in [t,T]}) $$
mientras que el coste óptimoes
$$ V(t,x) = \Bbb{E}_t \left[ U(X_T^{\pi^*,x}) \right] $$
El coste óptimo de la función resuelve el Hamilton-Jacobi-Bellman ecuaciones.
La prueba puede ser obtenida por ver el problema como un Problema de Programación Dinámica , y depender de Bellman principio de optimalidad (ver $(1)$ por debajo).
Como @noob2 menciona, en algún punto de la Itô diferencial del coste óptimo de $V(t,x)$ aparece. Por lo tanto, la regularidad de las condiciones son las condiciones habituales de Itô de integración, tanto por $X_t$ e $V(t,x)$.
Algunos intuición
\begin{align}
V(t,x) &= \Bbb{E}_t \left[ U(X_T^{\pi^*,x}) \right] \\
&= \Bbb{E}_t \left[ \Bbb{E}_{t+dt} \left[ U\left(X_T^{\pi^*,x+dX_t(\pi^*_t)}\right) \right] \right] \\
&= \Bbb{E}_t \left[ V(t+dt, x+dX_t(\pi^*_t)) \right] \tag{1}\\
&= \sup_{\pi_t} \Bbb{E}_t \left[ V(t+dt, x+dX_t(\pi_t)) \right]\\
&= \sup_{\pi_t} \Bbb{E}_t \left[ V(t,x) + \frac{dV(t,x)}{dt} dt + \frac{dV(t,x)}{dx}dX_t + \frac{d^2V(t,x)}{dx^2}d\langle X \rangle_t \right] \\
&= V(t,x) + \frac{dV(t,x)}{dt} dt + \sup_{\pi_t} \left( \frac{dV(t,x)}{dx} x (r_t + \pi_t(\mu_t-r_t)) + \frac{1}{2} \frac{d^2V(t,x)}{dx^2} x^2 \pi_t^2 \sigma_t^2 \right) dt
\end{align}
por lo tanto, finalmente,
$$ \frac{dV(t,x)}{dt} + \sup_{\pi_t} \left( \frac{dV(t,x)}{dx} x (r_t + \pi_t(\mu_t-r_t)) + \frac{1}{2} \frac{d^2V(t,x)}{dx^2} x^2 \pi_t^2 \sigma_t^2 \right) = 0 $$
[editar]
El DPP punto de vista consiste en ver el óptimo control de la $(\pi^*_s)_{s \in [t,T]}$ como la "unión" de lo que usted elige hacer más de $[t,t+dt[$ y lo que usted hace a $[t+dt,T[$. De manera informal:
$$ (\pi^*_s)_{s \in [t,T]} = \pi^*_t \cup (\pi^*_s)_{s \in [t+dt,T]} $$
En este punto, de optimalidad de Bellman principio nos indica que la restricción del control óptimo $(\pi^*_s)_{s \in [t+dt,T]}$ es en sí misma la política óptima en el horizonte de $[t+dt,T[$. Esta es la razón por la en $(1)$ puede escribir que
$$ \Bbb{E}_{t+dt} \left[ U\left(X_T^{\pi^*,x+dX_t(\pi^*_t)}\right) \right] = V(t+dt,x+dX_t(\pi^*_t)) $$
con $V$ el costo óptimo (y no simplemente el valor de la función).