2 votos

FOCs para el agregador Dixit-Stiglitz: derivada de una integral con respecto al integrando en un punto

Esta es quizás más una pregunta matemática que económica, pero dado que es un problema económico, la planteo aquí.

Supongamos que tengo, en un modelo macroeconómico, un productor de bienes finales perfectamente competitivo que combina un continuo de bienes intermedios diferenciados utilizando el agregador de Dixit-Stiglitz (CES)

$$ Y_t = \left[ \int_0^1 (Y_{i,t})^{\frac1\lambda} di \right]^\lambda $$

Este productor elige $Y_{i,t}$ para todos los $0 \le i \le 1$ para maximizar las ganancias, considerando los precios de los insumos y los productos como dados,

$$ \max_{\{Y_{i,t}\}} P_t Y_t - \int_0^1 P_{i,t} Y_{i,t} di $$

La condición de primer orden (CPO) para este problema se obtiene tomando la derivada de las ganancias (llamémoslas $\Pi_t$) con respecto a $Y_{i,t}$, y los libros de texto invariablemente la presentan como

$$ \frac{\partial}{\partial Y_{i,t}}\Pi_t = P_t \left[ \frac{ Y_t }{ Y_{i,t} } \right]^{\frac{\lambda-1}\lambda} - P_{i,t} $$

Pero, ¿cómo se llega a eso? Específicamente, al tomar la derivada de una integral como $\int_0^1 P_{j,t} Y_{j,t} dj$ (donde he renombrado la variable de integración para evitar confusiones) con respecto a algún $Y_{i,t}$ (con $i$ fijo), ¿cómo se procede, matemáticamente?

Mi enfoque habría sido decir que dado que los límites de la integral no dependen de $i$, podemos intercambiar la diferenciación y la integración por la regla de Leibniz para obtener que

$$ \frac{\partial}{\partial Y_{i,t}} \int_0^1 P_{j,t} Y_{j,t} dj = \int_0^1 \frac{\partial}{\partial Y_{i,t}} \left[ P_{j,t} Y_{j,t} \right] dj $$

La derivada dentro de la integral es $P_{i,t}$ si $i = j$, cero de lo contrario. Así que creo que deberíamos tener

$$ \frac{\partial}{\partial Y_{i,t}} \int_0^1 P_{j,t} Y_{j,t} dj = \int_0^1 P_{i,t} \cdot \mathbf{1}(i = j) dj $$

(donde $\mathbf{1}$ es la función indicadora para la condición dada). Pero dado que el integrando es entonces cero casi en todas partes (excepto en un punto), la integral debería evaluar a cero:

$$ \frac{\partial}{\partial Y_{i,t}} \int_0^1 P_{j,t} Y_{j,t} dj = 0 $$

Claramente, ese no es el resultado estándar, que es que

$$ \frac{\partial}{\partial Y_{i,t}} \int_0^1 P_{j,t} Y_{j,t} dj = P_{i,t} $$

en su lugar.

En el caso discreto, el resultado es diferente, por supuesto. Si la integral se reemplaza con una suma finita (que va desde $i = 1$ hasta $N$ para algún $N < \infty$), entonces todo cuadra. Y dado que una integral es, en cierto sentido, el límite continuo de una suma discreta, el resultado estándar también tiene sentido.

Lo mismo se aplica, mutatis mutandis, para la otra integral encontrada al derivar la CPO para el agregador de Dixit-Stiglitz ($\frac{\partial}{\partial Y_{i,t}} P_t Y_t$).

No dudo de que el resultado estándar sea correcto. Sin embargo, deseo entender por qué lo es y cómo puedo llegar a él de manera rigurosa matemáticamente.

(Hay una pregunta relacionada aquí, pero la respuesta simplemente afirma que el caso continuo "sigue como una especie de extensión límite", lo cual es demasiado vago para mí. También enlaza a El básico de “Dixit-Stiglitz lite” de Dingel, pero no hay nada allí).

Cualquier ayuda es bienvenida, especialmente indicaciones hacia documentos relevantes. ¡Gracias!

Notas al pie:

  1. Mi resultado también tiene sentido intuitivo para mí: dado que hay un continuo de bienes intermedios, tiene sentido que un cambio en la cantidad utilizada para la producción de uno solo (generalmente, un conjunto nulo) no modifique las ganancias totales.
  2. Matemáticamente hablando, dado que la integral es de 0 a 1, siento que la suma discreta más apropiada de la que es un límite es quizás en realidad $\sum_{i=1}^N \frac1N P_{i,t} Y_{i,t}$, y cuando permitimos que $N \to \infty$ allí el límite de la derivada parcial es efectivamente cero.

3voto

tdm Puntos 146

La forma 'heurística' de tomar las condiciones de primer orden es, de hecho, un poco 'matemáticamente' cuestionable.

Para este tipo de problemas, donde estás maximizando sobre una función entera, las condiciones de primer orden se obtienen (generalmente) aplicando principios de 'cálculo de variaciones'. La idea es que miras las pequeñas perturbaciones desde la solución óptima y requieres que cualquier variación de ese tipo no mejore la solución óptima.

Primero, voy a ignorar algunos detalles, como las restricciones de esquina (límite) que requieren, por ejemplo, que las entradas siempre deben ser no negativas. También estoy omitiendo bastantes detalles aquí.

Para empezar, sea $C^1[0,1]$ la clase de funciones continuas $g: [0,1] \to \mathbb{R}$ que son diferenciables en $(0,1)$. Lo siguiente es válido:

Lema [lema fundamental del cálculo de variaciones] Si $h: [0,1] \to \mathbb{R}$ es continua y si para todos los $g \in C^1[0,1]$, $\int_0^1 h(x) g(x) dx = 0$ entonces $h(x) = 0$ para todo $x \in [0,1]$.

No voy a dar la prueba, pero la idea es que si $h(x_0) \ne 0$ para algún $x_0$, entonces (como $h$ es continua) hay un intervalo que contiene a $x_0$ en el que $h$ es estrictamente positiva o negativa. Luego, eligiendo $g$ también estrictamente positiva o negativa solo en un subintervalo de este intervalo garantiza que la integral $\int_0^1 h(x) g(x) \ne 0$ dando una contradicción.

Ahora, sea $Y: [0,1] \to \mathbb{R}$ una función tal que $Y(x)$ representa la cantidad elegida para la entrada $x \in [0,1]$. Suponemos que esta función es continua. Consideremos nuestra función de beneficios, que depende de esta función $Y$. $$ \pi(Y) = \left[\int_0^1 (Y(x))^{1/\lambda} dx \right]^\lambda - \int_0^1 P(x) Y(x) dx $$ Aquí $P(x)$ es el precio de la entrada $x$, que asumimos fijo (y continuo).

Nos gustaría encontrar la función $Y^\ast: [0,1] \to \mathbb{R}$ que maximiza $\pi(Y)$.

Para obtener un conjunto de condiciones de primer orden necesarias, vamos a usar el cálculo de variaciones.

Primero, asumamos que conocemos la solución óptima $Y^\ast: [0,1] \to \mathbb{R}$. Vamos a considerar pequeñas variaciones (perturbaciones) a esta solución óptima, y requerimos que ninguna de estas perturbaciones mejore el beneficio. Para obtener estas pequeñas variaciones, sea $g \in C^1[0,1]$ y consideremos para un $\varepsilon \in \mathbb{R}$ suficientemente pequeño, una nueva función: $$ Y_\varepsilon(x) = Y^\ast(x) + \varepsilon g(x). $$ La función $Y_\varepsilon$ se puede considerar como una pequeña perturbación de la función óptima $Y^\ast$. Observa que para $\varepsilon = 0$, $Y_0(x) = Y^\ast(x)$. Por lo tanto, $\pi(Y_\varepsilon)$ alcanza un valor máximo para $\varepsilon = 0$. Dado que $\varepsilon$ es un número real, podemos usar la condición de primer orden habitual con respecto a $\varepsilon$.

Esto nos da: $$ \left. \frac{d \pi(Y_\varepsilon)}{d\varepsilon} \right|_{\varepsilon = 0} = 0 $$

Observa que: $$ \pi(Y_\varepsilon) = \left[\int_0^1 (Y^\ast(x) + \varepsilon g(x))^{1/\lambda} dx\right]^{\lambda} - \int_0^1 P(x)(Y^\ast(x) + \varepsilon g(x)) dx. $$ Tomando la derivada con respecto a $\varepsilon$ y evaluando en $\varepsilon = 0$ obtenemos: $$ \begin{align*} &\left[\int_0^1 (Y^\ast(x))^{1/\lambda} dx\right]^{\lambda-1} \int_0^1 Y^\ast(x)^{\frac{1 - \lambda}{\lambda}} g(x) dx - \int_0^1 P(x) g(x),\\ &=\int_0^1 \underbrace{\left\{ \left[\int_0^1 (Y^\ast(x))^{1/\lambda} dx\right]^{\lambda-1} Y^\ast(x)^{\frac{1 - \lambda}{\lambda}} - P(x) \right\}}_{h(x)} g(x) dx = 0\\ \end{align*} $$ Dado que $g \in C^1[0,1]$ era arbitrario, podemos usar el lema fundamental del cálculo de variaciones para obtener que $h(x) = 0$ para todo $x$, lo cual nos da la colección de condiciones de primer orden que estabas buscando.

0voto

IndiaVisa Puntos 36

Para referencia, también se presenta una derivación explícita similar a la de @tdm, utilizando el cálculo de variaciones, en Heer y Maußner (2024), Modelado del Equilibrio General Dinámico: Métodos Computacionales y Aplicaciones, 3ra edición, específicamente en la sección 4.6 y sus apéndices.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X