1 votos

¿Utilidad lineal?

Consideremos una relación de preferencia $\succeq$ en $X\subseteq\mathbb R^2$ . Si $\succeq$ se satisface: $$ \begin{align} &1.\mbox{ }(a_1,a_2)\succeq (b_1,b_2)\implies(a_1+t,a_2+s)\succeq (b_1+t,b_2+s),\forall t,s\\ &2.\mbox{ }a_1\geq b_1 \mbox{ and } a_2\geq b_2 \implies (a_1,a_2)\succeq (b_1,b_2)\mbox{ (and the analogous for }\succ\mbox{)}\\ &3.\mbox{ Continuity } \end{align} $$ Entonces, ¿existe una representación lineal para $\succeq$ ?


Cuando $X=\mathbb R^2$ La prueba antigua está copiada aquí:

Paso 1: Para cada vector $(x,y)$ hay un único $z\in \mathbb R$ tal que $(x,y) \sim (z,z)$ . WLOG asumir $x \geq y$ . Entonces, para ver esta afirmación, primero hay que notar por A2 que $(x,x) \succeq (x,y) \succeq (y,x)$ . Luego, viajando a lo largo del $45^\circ$ de $(y,y)$ a $(x,x)$ A3 garantiza la existencia de nuestro $z$ . La monotonicidad (estricta) asegura la unicidad de forma obvia. Sea $u: (x,y) \mapsto z$ donde $z$ se define así.

Paso 2: Ahora dejemos que $(x,y) \sim (z,z)$ y $(x',y') \sim (z',z')$ . Entonces, por A1 y por transitividad tenemos $(x+x',y+y') \sim (z+z',z+z')$ . Aditividad+transitividad implica linealidad.


Sin embargo, en nuestro caso de $X\subseteq \mathbb R^2$ Por ejemplo, establezcamos $X=[2,3]\times [2,3]$ entonces el paso 2 ya no funciona: porque si $x,x'\in [2,3]$ entonces $x+x'\not\in [2,3]$ .

Por tanto, mi hipótesis es que la preferencia no es necesariamente lineal. Puede ser una función de potencia como $u(x,y)=ax^b+cy^d$ donde $a,b,c,d$ puede ser positivo o negativo. También, $u$ debe ser analítico.

Para las dimensiones 3+, el $u$ debe ser separable.

2voto

romeroabelleira Puntos 111

Supuestos $1$ a $3$ son suficientes para obtener una representación lineal cuando $X$ es abierta y convexa. Procedemos en dos pasos.


Paso $1$ :

Utilizaremos repetidamente la siguiente consecuencia de la continuidad y $A1$ : Si $x \sim x^{\prime}$ entonces $x \sim x + \lambda (x^{\prime} - x)$ por cada $\lambda \in \mathbb{R}$ tal que $x + \lambda (x^{\prime} - x) \in X$ .

Primero, $x + 0.5 (x^{\prime} - x)$ está contenida en $X$ como suponíamos $X$ para ser convexo. En segundo lugar, por la completitud de la relación, $x \succeq x + 0.5 (x^{\prime} - x)$ o $x \preceq x + 0.5 (x^{\prime} - x)$ . Supongamos esto último (el otro caso se trata de forma similar). En $A1$ , $$x \preceq x + 0.5 (x^{\prime} - x) \quad \Leftrightarrow \quad x + 0.5 (x^{\prime} - x) \preceq x + 0.5 (x^{\prime} - x) + 0.5 (x^{\prime} - x).$$ Esta última comparación equivale a $x + 0.5 (x^{\prime} - x) \preceq x^{\prime}$ . Esto muestra $$x \preceq x + 0.5 (x^{\prime} - x) \preceq x^{\prime} \sim x.$$

Repitiendo este argumento, concluimos que para cualquier $n, k \in\mathbb{N}$ con $k \leq 2^{n}$ la comparación $$ x \sim x + \frac{k}{2^{n}}(x^{\prime} - x) $$ se mantiene. Para cualquier número $\lambda \in [0, 1]$ existe una secuencia de fracciones de la forma $k / 2^{n}$ convergiendo a $\lambda$ . Como la relación es continua, esto establece que $x \sim x + \lambda (x^{\prime} - x)$ para cualquier $\lambda \in [0, 1]$ .

Para conseguir la indiferencia por la arbitrariedad $\lambda \geq 0$ , encontrar $n\in \mathbb{N}$ tal que $n \leq \lambda \leq n + 1$ . Tenga en cuenta que $x \sim x^{\prime}$ si $x^{\prime} \sim x^{\prime} + (x^{\prime} - x)$ si $x^{\prime} + (x^{\prime} - x) \sim x^{\prime} + 2(x^{\prime} - x)$ etc. Así, $x \sim x + n (x^{\prime} - x ) \sim x + (n+1) (x^{\prime} - x )$ . Desde $\lambda$ puede escribirse como una combinación convexa de $n$ y $n+1$ Los argumentos anteriores implican ahora que $x\sim x + n (x^{\prime} - x ) \sim x + \lambda (x^{\prime} - x )$ . Por último, cuando $\lambda \leq 0$ , siga los mismos pasos pero tenga en cuenta $x - n (x^{\prime} -x)$ etc.


Paso $2$ :

Dejemos que $x$ sea un elemento arbitrario de $X$ . Por continuidad y monotonicidad podemos encontrar un punto $x^{\prime}$ desigual a $x$ tal que $x\sim x^{\prime}$ . El argumento es el siguiente: Para $\varepsilon$ suficientemente pequeño, los puntos $x - \varepsilon (1, 1)$ y $x + \varepsilon (1, 1)$ están contenidas en $X$ como $X$ es abierta. Por monotonicidad, $$x - \varepsilon (1, 1) \prec x \prec x + \varepsilon (1, 1).$$ Entonces para $\varepsilon^{\prime}$ suficientemente pequeño, $$x - \varepsilon (1, 1) + \varepsilon^{\prime}(-1, 1) \prec x \prec x + \varepsilon (1, 1) + \varepsilon^{\prime}(-1, 1)$$ por continuidad (y para las pequeñas $\varepsilon^{\prime}$ estos puntos se encuentran de nuevo en $X$ ). Consideremos ahora el segmento de línea entre $x - \varepsilon (1, 1) + \varepsilon^{\prime}(-1, 1) $ y $ x + \varepsilon (1, 1) + \varepsilon^{\prime}(-1, 1)$ y utilizar la continuidad y el hecho de que $X$ es convexo.

Supongamos que $y$ y $y^{\prime}$ son otros dos puntos distintos en $X$ tal que $y \sim y^{\prime}$ . Sin pérdida, etiquetemos los puntos de forma que $x_{1} < x_{1}^{\prime}$ y $y_{1} < y_{1}^{\prime}$ . Demostraremos que $x^{\prime} - x$ y $y^{\prime} - y$ son paralelos. Si no lo son, entonces podemos asumir que $(x^{\prime}_{2} - x_{2}) / (x_{1}^{\prime} - x_{1}) > (y^{\prime}_{2} - y_{2}) / (y_{1}^{\prime} - y_{1}) $ se satisface (el argumento es análogo para el otro caso).

Por $A1$ , $$x \sim x + \lambda_{x} (x^{\prime} - x) \Rightarrow y \sim y + \lambda_{x} (x^{\prime} - x)$$ para todos $\lambda \in [0, 1]$ . También, $y \sim y + \lambda_{y} (y^{\prime} - y)$ para todos $\lambda_{y} \in [0, 1]$ desde $y\sim y^{\prime}$ . Todas estas comparaciones están bien definidas como $X$ es convexo. Elección de $\varepsilon > 0$ suficientemente pequeño, estas comparaciones se mantienen, en particular, para $\lambda_{x} = \varepsilon / (x_{1}^{\prime} - x_{1})$ y $\lambda_{y} = \varepsilon / (y_{1}^{\prime} - y_{1})$ . (Elegir $\varepsilon$ suficientemente pequeño es necesario para garantizar $\lambda_{x}, \lambda_{y} \in (0, 1)$ .) Ahora observamos que \begin{align*} \lambda_{x} (x^{\prime} - x) &= \varepsilon \begin{pmatrix} 1 \\ \frac{x_{2}^{\prime} - x_{2}}{x_{1}^{\prime}- x_{1}} \end{pmatrix} , \\ \texto{y}cuadrado \lambda_{y} (y^{\\\prime} - y) &= \\Nvarepsilon \begin{pmatrix} 1 \\ \frac{y_{2}^{\prime} - y_{2}}{y_{1}^{\prime}- y_{1}} \end{pmatrix} . \Fin A partir de nuestros supuestos, concluimos que $\lambda_{x} (x^{\prime} - x) > \lambda_{y} (y^{\prime} - y)$ . Dada la monotonicidad, esto contradice el hecho de que $y\sim y + \lambda_{x} (x^{\prime} - x)$ y $y \sim y + \lambda_{y} (y^{\prime} - y)$ .

Hasta ahora hemos demostrado que existe un vector $r$ tal que $z \sim z^{\prime}$ sólo si $r \cdot z = r \cdot z^{\prime}$ . Para demostrar lo contrario, consideremos nuestros puntos iniciales $x, x^{\prime}$ que sabemos que son equivalentes y satisfacen $r \cdot x = r \cdot x^{\prime}$ . Ahora bien, si $r \cdot z = r \cdot z^{\prime}$ y luego viajar desde $z$ a $z^{\prime}$ implica viajar en una línea paralela a $x - x^{\prime}$ . Indiferencia $z \sim z^{\prime}$ entonces se deduce de $A1$ y la continuidad.



Una forma de alejarse de la representación lineal es abandonar $A1$ . Por ejemplo, si lo sustituye por $x \sim y \Leftrightarrow x \sim x + \lambda (x - y)$ para todos $\lambda \in \mathbb{R}$ (tal que $x + \lambda (x - y) \in X$ ), entonces todas las representaciones de utilidad pueden no ser lineales. En términos generales, si sólo se impone que cada curva de indiferencia sea un hiperplano en $\mathbb{R}^{2}$ , entonces restringiendo $X$ le permite organizar adecuadamente las curvas de indiferencia de manera que no sean paralelas y no se crucen. Por supuesto, no restringir $X$ no funcionaría ya que los hiperplanos no paralelos siempre se cruzan en algún lugar de $\mathbb{R}^{2}$ .

He aquí un ejemplo: Sea $X = (0, 1] \times [-1, 0]$ y que $u(x_{1}, x_{2}) = x_{2} / x_{1}$ . En otras palabras, la utilidad asignada al punto $x$ es la pendiente del segmento de recta que lo une al origen. Esta función de utilidad es estrictamente creciente en ambos argumentos (ya que $x_{2} \leq 0 < x_{1}$ en $X$ ) y continua. Se puede comprobar fácilmente que $$ \frac{x_{2}}{x_{1}} = \frac{y_{2}}{y_{1}} \Leftrightarrow \frac{x_{2}}{x_{1} } = \frac{x_{2} + \lambda (y_{2} - x_{2})}{x_{1}+ \lambda (y_{1} - x_{1})} \quad \forall \lambda $$ se satisface, mostrando que las curvas de indiferencia son hiperplanos. Estos hiperplanos no son paralelos (por construcción) y sólo se cruzan en $(0, 0)$ pero eliminamos el origen de $X$ .

Para ver que este ejemplo viola $A1$ y la linealidad, considere los puntos $(0.5, -0.5)$ y $(-1, 1)$ . Claramente, $- 0.5 / 0.5 = - 1 / 1$ es decir $(0.5, -0.5) \sim (-1, 1)$ . Sin embargo, $$(0.5, -0.5 + 0.25) \succ (1, -1 + 0.25)$$ desde $$(- 0.5 + 0.25) / 0.5 = - 0.5 > - 0.75 = (-1 + 0.25) / 1.$$

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X