Una pregunta similar a la que planteas es: Cómo puedo resolver formalmente el problema de minimización del gasto (PEM) utilizando las condiciones de Kuhn-Tucker, dada una función de utilidad Cobb-Douglas $u(x_1,x_2)=x_1^\alpha x_2^{1-\alpha}$ ?
El problema de minimización del gasto (PEM) para una función de utilidad Cobb-Douglas $u(x_1,x_2) = x_1^{\alpha}x_2^{1-\alpha}$ sujeta a una restricción presupuestaria puede formularse del siguiente modo:
\begin{aligned} \text{minimize } & p_1x_1 + p_2x_2 \\ \text{subject to } & u(x_1,x_2) \geq u \\ & p_1x_1 + p_2x_2 \leq w \\ & x_1 \geq 0, x_2 \geq 0 \end{aligned}
donde $p_1$ y $p_2$ son los precios de los bienes 1 y 2, $w$ es el presupuesto, y $\alpha \in (0,1)$ .
El Lagrangiano para este problema es:
$L(x_1,x_2,\lambda) = p_1x_1 + p_2x_2 - \lambda(u(x_1,x_2) - u)$
La forma vectorial de $\nabla_x L$ es:
$$\nabla_x L = \begin{bmatrix} \frac{\partial L}{\partial x_1} \ \frac{\partial L}{\partial x_2} \ \frac{\partial L}{\partial \lambda} \end{bmatrix} = \begin{bmatrix} p_1 - \lambda \alpha x_1^{\alpha-1}x_2^{1-\alpha} \ p_2 - \lambda (1-\alpha) x_1^{\alpha}x_2^{-\alpha} \ u(x_1,x_2) - u \end{bmatrix}$$
Así que el Condiciones Kuhn-Tucker para un mínimo puede escribirse como
$$\nabla_x L = \begin{bmatrix} p_1 - \lambda \alpha x_1^{\alpha-1}x_2^{1-\alpha} & p_2 - \lambda (1-\alpha) x_1^{\alpha}x_2^{-\alpha} & u(x_1,x_2) - u \end{bmatrix} = \mathbf{0}$$
Las condiciones de Kuhn-Tucker para un mínimo también lo son:
- $\lambda(u(x_1,x_2) - u) = 0$
- $u(x_1,x_2) \geq u$
- $p_1x_1 + p_2x_2 \leq w$
- $x_1 \geq 0, x_2 \geq 0$
- $\lambda \geq 0$
Para demostrar que la solución obtenida a partir de las condiciones de Kuhn-Tucker es un mínimo, necesitamos verificar que el hessiano del lagrangiano es positivo definido en la solución.
La matriz hessiana $H(x_1,x_2,\lambda)$ es una matriz de 3x3 y viene dada por:
$$H(x_1,x_2,\lambda) = \begin{bmatrix} \frac{\partial^2 L}{\partial x_1^2} & \frac{\partial^2 L}{\partial x_1\partial x_2} & \frac{\partial^2 L}{\partial x_1\partial \lambda} \\ \frac{\partial^2 L}{\partial x_2\partial x_1} & \frac{\partial^2 L}{\partial x_2^2} & \frac{\partial^2 L}{\partial x_2\partial \lambda} \\ \frac{\partial^2 L}{\partial \lambda\partial x_1} & \frac{\partial^2 L}{\partial \lambda\partial x_2} & \frac{\partial^2 L}{\partial \lambda^2} \end{bmatrix}$$
Si evaluamos el hessiano en la solución $$x_1 = u_{x_1}, x_2 = u_{x_2}, \lambda = \frac{1}{u_{x_1}^\alpha u_{x_2}^{1-\alpha}}$$ obtenemos:
$$H(x_1,x_2,\lambda) = \begin{bmatrix} 0 & -\alpha \lambda x_2^{1-\alpha}x_1^{\alpha-1} & -\alpha \lambda x_2^{1-\alpha}x_1^{\alpha-1} \\ -\alpha \lambda x_2^{1-\alpha}x_1^{\alpha-1} & 0 & (1-\alpha)\lambda x_1^{\alpha}x_2^{-\alpha} \\ -\alpha \lambda x_2^{1-\alpha}x_1^{\alpha-1} & (1-\alpha)\lambda x_1^{\alpha}x_2^{-\alpha} & 0 \end{bmatrix}$$
El determinante del hessiano es:
$$\det(H) = 2\alpha^2(1-\alpha)^2\lambda^3 x_1^{2\alpha-2}x_2^{-2\alpha-1}$$
En el punto óptimo, tenemos $\alpha x_1^{\alpha}x_2^{1-\alpha} = u$ y $\lambda > 0$ por lo que podemos sustituir estas expresiones en el determinante y obtener:
$$\det(H) = 2\alpha^2(1-\alpha)^2\lambda^3\frac{u}{x_1^2x_2} > 0$$
Como el determinante es positivo y los elementos diagonales son cero, el hessiano es semidefinido positivo. Por lo tanto, la solución es un mínimo si el hessiano es semidefinido positivo.