Processing math: 100%

7 votos

Derivación simple del principio de máxima

Consideremos el problema más sencillo de control óptimo \begin {align} & \max_u\int ^T_0{F(y,u)dt} \\ \text {s.t.} \quad & \dot y = f(y,u) \\ & y(0) = y_0 \\ & y(T)~~ \text {gratis} \end {align} donde y es el estado y u el control. Me gustaría utilizar un enfoque estático para derivar las condiciones necesarias del principio de máxima. Construir el lagrangiano: \begin {align} L^1(y,u, \lambda ) = \int ^T_0{[F(y,u) + \lambda (f(y,u)- \dot y)]dt} \end {align}

Las condiciones necesarias para el óptimo vienen dadas por \begin {align} L^1_u &= \int ^T_0{[F_u + \lambda f_u] dt} = 0 \\ L^1_ \lambda &= \int ^T_0{[f(y,u)- \dot y ]dt} = 0 \end {align}

Definir el hamiltoniano \begin {align} H(y,u, \lambda ) := F(y,u) + \lambda f(y,u) \end {align}

de manera que los FOCs pueden escribirse como \begin {align} H_u &= 0~ \forall t \\ H_ \lambda &= \dot y~ \forall t \end {align}

Para la última FOC escribimos el Lagrangiano como (integrando por partes) \begin {align} L^2(y,u, \lambda ) = \int ^T_0{[H(y,u, \lambda ) + \dot\lambda y]dt} + y_0 \lambda (0) - y(t)|_{t=T} \lambda (T) \end {align}

Tenga en cuenta que L1=L2 . El último FOC viene dado por la diferenciación sobre y ( y0 gotas, porque está arreglado) \begin {align} L^2_y &= \int ^T_0{[H_y + \dot \lambda ] dt} - \lambda (T) = 0 \\ \end {align}

y finalmente \begin {align} H_y &= - \dot \lambda ~ \forall t \\ \lambda (T) &= 0 \end {align}

Así que hemos terminado aquí.

  • ¿Cómo puedo conseguir esas condiciones sin variar el lagrangiano, es decir, ceñirme a L1 o L2 ?

2voto

Bernard Puntos 10700

Después de un intercambio de comentarios, vamos a dar la respuesta bajo la formulación disrete-tiempo. El problema se escribe ahora

\begin {align} & \max_ {{u}_1^T, {y}_1^T} \sum ^T_{t=1}{F(y_t,u_t)} \\ \text {s.t.} \quad & y_{t+1}-y_t = f(y_t,u_t) \\ & y_1 = \text {dado} \\ & y_{T+1}~~ \text {gratis} \end {align}

donde yt+1 es el valor de la variable stock al principio del periodo t+1 /final del periodo t . El Lagrangean es \begin {align} \Lambda = \sum ^T_{t=1}{ \big (F(y_t,u_t) + \lambda_t [f(y_t,u_t)-y_{t+1}+y_t] \big )} \end {align}

Tenga en cuenta que λt está asociada a yt+1 .

Los FOCS son (para mantener t en el horizonte)

Λut=Fu(yt,ut)+λtfu(yt,ut)=0

Λyt+1=λt+Fy(yt+1,ut+1)+λt+1[fu(yt+1,ut+1)+1]=0

Fy(yt+1,ut+1)+λt+1fy(yt+1,ut+1)=(λt+1λt)

que son las condiciones que habríamos obtenido si hubiéramos utilizado la formulación hamiltoniana. Para obtener el valor terminal de λt , establecemos t=T en (2) (ya que la última variable del y -secuencia es yT+1 ), y obtenemos:

Fy(yT+1,0)+λT+1fy(yT+1,0)=(λT+1λT)

uT+1=0 porque no hay ninguna decisión que tomar en el período T+1 . Además λT+1 también debe ponerse a cero, ya que se asocia con yT+2 (fin de periodo) T+1 ) y estamos fuera del horizonte. Así que nos quedamos con

Fy(yT+1,0)=λT

Si ahora vamos a conseguir λT=0 o no depende de la formulación de la función objetivo F(yt,ut) ¿Incluye efectivamente la variable de estado? En caso afirmativo, ¿cuál es el valor de su derivada con respecto a la variable de estado cuando la variable de decisión se pone a cero? Etc

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X