Estoy leyendo un artículo sobre un problema de control óptimo estocástico. En un momento dado el autor se enfrenta a la siguiente ecuación de Hamilton-Jacobi-Bellman (HJB):
ρV(A)=max
Escribe que: Si u''(\cdot)<0 entonces la función política óptima para c puede escribirse como: c^{*}=C(A)=(u')^{-1}(V'(A)) . Sustituyendo en la ecuación HJB, obtenemos la ecuación diferencial sobre V(A) :
\rho V(A)= u(C(A))+V'(A)(y+rA-C(A))+\frac{1}{2}\left(\frac{r-\mu}{\sigma}\right)^{2}\frac{(V'(A))^{2}}{V''(A)}
Puedo ver fácilmente la sustitución en la primera parte de la última ecuación, pero no entiendo cómo el último término \frac{1}{2}\left(\frac{r-\mu}{\sigma}\right)^{2}\frac{(V'(A))^{2}}{V''(A)} se obtiene. Si trato de hacer un poco de álgebra lo más que puedo obtener es:
\rho V(A)= u(C(A))+V'(A)(y+rA-C(A))+WA\left[(\mu-r)V'(A)+\frac{1}{2}WA\sigma^{2}V''(A)\right]
Hay alguien que me pueda ayudar a entender cual es el procedimiento correcto para obtener el resultado del trabajo ?