Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

2 votos

Cómo aplicar la ecuación de Bellman con dos variables de control en un modelo de crecimiento óptimo

Actualmente estoy estudiando un problema de crecimiento óptimo que involucra a un consumidor representativo, y tengo problemas para usar la ecuación de Bellman cuando hay dos variables de control involucradas. Específicamente, quiero evitar usar el método de Lagrange porque requiere probar la existencia de multiplicadores, lo cual puede ser complejo.

El problema es el siguiente: El consumidor representativo vive infinitamente y tiene preferencias descritas por la función de utilidad t=0βt[lnct+γlnlt], donde 0<β<1 es el factor de descuento, ct0 es el consumo, lt[0,1] es el ocio, y γ>0 es un parámetro que pondera la importancia del ocio. En cada periodo, el consumidor tiene una dotación de una unidad de tiempo, que puede ser asignada entre trabajo y ocio, por lo que el trabajo es nt=1lt.

La tecnología de producción está dada por yt=kαtn1αt, donde yt es la producción, kt es la inversión de capital, nt es la inversión de trabajo, y 0<α<1 representa la elasticidad de la producción con respecto al capital. El capital se deprecia completamente en cada periodo, lo que significa que hay una depreciación del 100%, por lo que la ecuación de acumulación de capital se simplifica a kt+1=ytct.

Necesito formular el problema de crecimiento óptimo tanto en formas primitivas como reducidas, identificando el espacio de estados, la ecuación de transición y la función de utilidad en forma reducida. Además, pretendo caracterizar las trayectorias óptimas de consumo, ocio y capital. También quiero determinar el número de estados estacionarios, analizar su estabilidad local y comprender cómo el parámetro γ afecta los niveles estacionarios de consumo, ocio y capital.

Mi pregunta principal es: ¿Cómo puedo plantear y resolver este problema usando la ecuación de Bellman cuando hay dos variables de control, ct y lt? No estoy seguro de cómo definir la función de valor y formular la ecuación de Bellman en este contexto. También estoy buscando orientación sobre los pasos a seguir para derivar las condiciones de optimalidad utilizando la programación dinámica. ¿Existen técnicas estándar o transformaciones que simplifiquen el manejo de múltiples variables de control dentro del marco de Bellman?

Cualquier consejo detallado o referencias a problemas similares que se hayan resuelto utilizando programación dinámica con múltiples variables de control serían muy apreciados. ¡Gracias por su ayuda!

1voto

tdm Puntos 146

Tienes el siguiente problema: max

La ecuación de Bellman es: \begin{align*} V(k_t) &= \max_{c_t, \ell_t} \left(\ln(c_t) + \gamma \ln(\ell_t) + \beta V(y_t - c_t)\right),\\ &=\max_{c_t, \ell_t} \left(\ln(c_t) + \gamma \ln(\ell_t) + \beta V(k_t^\alpha (1- \ell_t)^{1- \alpha} - c_t)\right). \end{align*}

Las condiciones de primer orden son: \begin{align*} &\frac{1}{c_t} = \beta V'(k_{t+1}),\\ &\frac{\gamma}{\ell_t} = \beta V'(k_{t+1})(1 - \alpha)k_t^\alpha(1- \ell_t)^{-\alpha} \end{align*} El teorema del sobre da, V'(k_t) = \beta V'(k_{t+1})\alpha k_{t}^{\alpha - 1}.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X