5 votos

Marco logit continuo

Estoy leyendo Dupuy & Galichon (2014), que amplían la estimación del modelo de emparejamiento en Choo & Siow (2006) a tipos continuos. La forma en que construyen el modelo logit continuo se basa en las ideas de Cosslett (1988) y Dagsvik (1994) quienes "han sugerido independientemente el uso de procesos máximos-estables para modelar elecciones continuas".

Los detalles del modelo logit continuo se describen en el Apéndice A:

"En este párrafo, exponemos las principales ideas de Cosslett (1988) y Dagsvik (1994), quienes muestran cómo obtener una versión continua del modelo logit multinomial. Supongamos que $\lbrace\left(y_k^m, \varepsilon_k^m\right), k \in \mathbb{N} \rbrace$ son los puntos de un proceso de puntos de Poisson en $\mathcal{Y} \times \mathbb{R}$ de intensidad $d y \times e^{-\varepsilon} d \varepsilon$. Recordamos que esto implica que para $S$ un subconjunto de $\mathcal{Y} \times \mathbb{R}$, la probabilidad de que el hombre $m$ no tenga conocidos en el conjunto $S$ es $\exp \left(-\int_S e^{-\varepsilon} d y d \varepsilon\right)$. A partir de (2), el hombre $m$ elige a la mujer $k$ entre sus conocidas de manera que se maximice su utilidad; es decir, el hombre $m$ resuelve $$\max_k \lbrace U\left(x,y_k^m\right)+\varepsilon_k^m \rbrace$$.

Tomando $Z$ como el valor de este máximo, se tiene para cualquier $c \in \mathbb{R}$ $$ \operatorname{Pr}(Z \leq c)=\operatorname{Pr}\left(U\left(x, y_k^m\right)+\varepsilon_k^m \leq c \forall k\right), $$ que es exactamente la probabilidad de que el proceso de puntos de Poisson $\left(y_k, \varepsilon_k^m\right)$ no tenga ningún punto en $\{(y, \varepsilon): U(x, y)+\varepsilon>c\}$; por lo tanto $$ \begin{aligned} \log \operatorname{Pr}(Z \leq c) & =-\iint_{\mathcal{Y} \times \mathbb{R}} 1(U(x, y)+\varepsilon>c) d y e^{-\varepsilon} d \varepsilon \\ & =-\int_{\mathcal{Y}} \int_{c-U(x, y)} e^{-\varepsilon} d \varepsilon d y \\ & =-\int_{\mathcal{Y}} e^{-c+U(x, y)} d y \\ & =-\exp \left[-c+\log \int_{\mathcal{Y}} \exp U(x, y) d y\right] \end{aligned} $$

Por lo tanto $Z$ es un Gumbel $\left(\log \int_{\mathcal{Y}} \exp U(x, y) d y, 1\right)$. En particular, $\mathbb{E}\left[\max_k \lbrace U\left(x, y_k^m\right)+\varepsilon_k^m \rbrace \right]=\log \int_{\mathcal{y}} \exp U(x, y) d y,$

y las probabilidades de elección se dan por su densidad con respecto a la medida de Lebesgue

$$\pi(y \mid x)=\exp [U(x, y)] /\left[\int_{\mathcal{Y}} \exp U\left(x, y^{\prime}\right) d y^{\prime}\right] .$$

La misma lógica también implica que $\lbrace \varepsilon_k: k \in \mathbb{N} \rbrace$ tiene una distribución Gumbel. De hecho, la probabilidad de que este proceso de puntos de Poisson no tenga elementos en el conjunto $\{\varepsilon: \varepsilon>c\}$ es igual a $$ \exp \left(-\int_c^{+\infty} e^{-\varepsilon} d \varepsilon\right)=\exp [-\exp (-c)] $$ lo que equivale a decir que $\operatorname{Pr}\left(\max _{k \in \mathbb{N}} \varepsilon_k \leq c\right)=\exp [-\exp (-c)]$. Por último, cabe señalar que un argumento similar mostraría que $m$ tiene casi con seguridad un número infinito, aunque contable, de conocidos, como se anunció. "

///

Creo que entiendo completamente la derivación hacia "$Z$ es un Gumbel". Pero luego me quedé atascado al derivar quizás la ecuación más importante del modelo logit: $$ \pi(y \mid x)=\exp [U(x, y)] /\left[\int_{\mathcal{Y}} \exp U\left(x, y^{\prime}\right) d y^{\prime}\right]$$ . No veo cómo se desprende de la derivación anterior.

///

Incluso revisé uno de los artículos citados, Dagsvik 1994, y encontré en su apéndice (DEMOSTRACIÓN DEL TEOREMA 4) que hay una derivación similar (A.8 a A.9) pero nuevamente sin más explicación. En caso de que alguien esté interesado, las ecuaciones allí son "(A.8) $$ \begin{gathered} P\left(\sup _{T(z) \in A,(T(z), E(z)) \in H, z \in Z}(\hat{v}(\hat{p}(T(z)), T(z), K)+E(z)) \leqslant y\right) \\ = \begin{cases}\exp \left\{-e^{-y} \mu \int_A \exp (\hat{v}(\hat{p}(t), t, K)) G(d t)\right\} & \text { for } y \geqslant c, \\ 0 & \text { for } y

A partir de (A.8) obtenemos (A.9) $$ \begin{gathered} P\left(\sup _{T(z) \in A,(T(z), E(z)) \in H, z \in Z}(\hat{v}(\hat{p}(T(z)), T(z), K)+E(z))\right. \\ \left.>\sup _{T(z) \in D-A,(T(z), E(z)) \in H, z \in Z}(\hat{v}(\hat{p}(T(z)), T(z), K)+E(z))\right) \\ \quad=\frac{\int_{u \leqslant t, u \in D} \exp (\hat{v}(\hat{p}(u), u, K)) G(d u)}{\int_D \exp (\hat{v}(\hat{p}(u), u, K)) G(d u)} \cdot\left(1-\exp \left(-\tilde{\Lambda}_c\right)\right), \end{gathered} $$ donde $$ \tilde{\Lambda}_c \equiv \mu e^{-c} \int_D \exp (\hat{v}(\hat{p}(t), t, K)) G(d t) . $$

Dado que $\Lambda_c$ es el número esperado de puntos de Poisson en $H \cap(D \times R)$ la probabilidad de que $H \cap(D \times R)$ no esté vacío es igual a $$ 1-\exp \left(-\tilde{\Lambda}_c\right) \text {. } $$"

3voto

Guid Puntos 370

Esta derivación sigue el mismo procedimiento que el utilizado en el modelo logit discreto.

Denotemos el índice del máximo dado $y$ seleccionado como $(y_i^m,\varepsilon_i^m)$, donde $y_i^m = y$. Tenemos que $$\operatorname{Pr}_i = \operatorname{Pr}\left(U\left(x, y_k^m\right)+\varepsilon_k^m \leq U\left(x, y_i^m\right)+\varepsilon_i^m \ \forall k \neq i \right) \\ = \exp \left( -\exp \left[-U\left(x, y_i^m\right)-\varepsilon_i^m+\log \int_{\mathcal{Y}} \exp U(x, y) d y\right] \right)$$​.

Luego podemos escribir las probabilidades de elección como $$\pi(y \mid x) = \int \operatorname{Pr}_i e^{-\varepsilon_i} d \varepsilon_i =\int \exp \left( -\exp \left[-U\left(x, y \right)-\varepsilon_i +\log \int_{\mathcal{Y}} \exp U(x, y') d y'\right] \right) e^{-\varepsilon_i} d \varepsilon_i \\ = \int \exp \left( -\exp \left[-\varepsilon_i\right] \exp \left[-U\left(x, y \right)\right] \int_{\mathcal{Y}} \exp U(x, y') d y' \right) e^{-\varepsilon_i} d \varepsilon_i \\ = \int \exp \left( -\exp \left[-\varepsilon_i\right] \int_{\mathcal{Y}} \exp \left[ U(x, y')-U\left(x, y \right) \right] d y \right)...

Luego definimos $t=\exp(-\varepsilon_i)$ tal que $-\exp (-\varepsilon_i) d \varepsilon_i=d t$ , tenemos que $$\pi(y \mid x) = \int_{\infty}^0 \exp \left( - t \int_{\mathcal{Y}} \exp \left[ U(x, y')-U\left(x, y \right) \right] d y' \right) (-dt) \\ = \int_0^{\infty} \exp \left( - t \int_{\mathcal{Y}} \exp \left[U(x, y')-U\left(x, y \right) \right]d y' \right) dt \\ = \frac{\exp \left( - t \int_{\mathcal{Y}} \exp \left[U(x, y')-U\left(x, y \right) \right] d y' \right)}{ - \int_{\mathcal{Y}} \exp \left[U(x, y')-U\left(x, y \right) \right] d y' } \left.\right|_0 ^{\infty} \\ = \frac{1}{ \int_{\mathcal{Y}} \exp \left[U(x, y')-U\left(x, y \right) \right] d y' } =\frac{\exp U\left(x, y \right)}{ \int_{\mathcal{Y}} \exp U(x, y') d y' }$$

Cualquier comentario es bienvenido.

2voto

tdm Puntos 146

Como afirman, $\pi(y|x)$ es la densidad de $\ln\left(\int_Y \exp(U(x,y) dy\right)$ (siendo la densidad la derivada de la función de distribución acumulada).

Si tomamos la derivada de $\ln\left(\int_Y \exp(U(x,y')) dy' \right)$ con respecto a $y$, obtenemos:

$$ \pi(y|x) = \frac{\exp(U(x,y))}{\int_Y \exp(U(x,y') dy'} $$ El denominador proviene del operador $\ln$. El numerador proviene de la regla de la cadena dado que $\dfrac{d \left(\int_Y exp(U(x,y')) dy'\right)}{dy} = \exp(U(x,y))$.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X