6 votos

Derivación de la ecuación de Euler a partir de un problema de programación dinámica en tiempo continuo (HJB)

La resolución de la ecuación de Euler en tiempo discreto es muy sencilla con el uso del teorema de Benveniste Scheinkman. Sin embargo, para el siguiente modelo estándar de Ramsey: $$\max \int_{0}^{\infty}e^{-rt} u(c(t))dt$$ con sujeción a: $$u(c(t))=\ln(c(t))$$ $$\dot{k}(t)=Ak^\theta-\delta k(t)-c(t)$$

el problema es simple si uso el Hamiltoniano sin embargo si escribo la ecuación de Hamilton-Jacobi-Bellman para esto: $$rV(k(t))=\ln(c(t))+V'(k(t))\dot{k}$$

No tengo ni idea de cómo empezar. ¿Cómo se puede resolver la ecuación de Euler utilizando la ecuación HJB correspondiente?

5voto

brian Puntos 124

Como ya se ha comentado, la ecuación a la que probablemente se refería es $$ \rho V(k)= \sup_c \{\, u(c) + V'(k) ( f(k) -\delta k -c ) \,\}. $$ Nunca he visto que esta ecuación se llame ecuación HJB (probablemente me falte una referencia básica). La llamaré "EDP de programación dinámica".

Lo que realmente estás preguntando es la conexión entre dos enfoques para resolver problemas de control---Cálculo de Variaciones/Control Óptimo vs. Programación Dinámica. El Control Óptimo (Principio de Máximo de Pontryagin) es un argumento de perturbación de primer orden y el Principio de Programación Dinámica es un argumento de inducción hacia atrás.

La "ecuación de Euler" surge de un argumento de perturbación de primer orden. (En tiempo continuo, es una ecuación clásica de Cálculo de Variación. En tiempo discreto, sólo he oído que se utiliza en economía, describiendo la suavización del consumo intertemporal, pero es un argumento de perturbación pero es un argumento de perturbación).

En tiempo continuo, la perturbación de primer orden de la trayectoria óptima significa una perturbación a lo largo de toda la trayectoria. En cambio, en tiempo discreto, basta con perturbar un solo período, por lo que se puede obtener la ecuación de Euler simplemente diferenciando la ecuación de Bellman (bajo, por ejemplo, los supuestos de Benveniste-Scheinkman que garantizan la diferenciabilidad de la función de valor).

En tiempo continuo, no creo que la respuesta sea tan trivial. Sin embargo, existe una conexión clásica entre el control óptimo y la programación dinámica a través del método de las características. Parte de la conexión es que, si la función de valor es suficientemente suave, entonces las ecuaciones características de la PDE de programación dinámica dan Principio de Máximo de Pontryagin.

En tu ejemplo de crecimiento, el maximizador de la RHS viene dado por $u'(c^*) = V'$ . Sustituyendo entonces se obtiene una de primer orden implícita $$ F(k, V, V') = \rho V - u(c^*( V')) - V'\cdot( f(k) -\delta k) + V' \cdot c^*( V') = 0. $$ Siguiendo el método de las características heurísticamente, una de las ecuaciones características sería \begin{align*} \frac{d}{dt} (V') &= -\lambda (F_k + F_V V') \\ &= -\lambda (- V' f'(k) + V' \rho), \end{align*} para algunos $\lambda \geq 0$ . Desde $u'(c^*) = V'$ , \begin{align*} \frac{d}{dt} \log (u'(c^*)) &= -\lambda (F_k + F_V V') \\ &= \lambda ( f'(k) - \rho), \end{align*} que es una ecuación de Euler.

(Por cierto, la ODE $F(k, V, V')$ no parece susceptible de ser adivinado y verificado, incluso cuando $u(c) = \log c$ .)

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X