Loading [MathJax]/jax/element/mml/optable/BasicLatin.js

5 votos

Marco logit continuo

Estoy leyendo Dupuy & Galichon (2014), que amplían la estimación del modelo de emparejamiento en Choo & Siow (2006) a tipos continuos. La forma en que construyen el modelo logit continuo se basa en las ideas de Cosslett (1988) y Dagsvik (1994) quienes "han sugerido independientemente el uso de procesos máximos-estables para modelar elecciones continuas".

Los detalles del modelo logit continuo se describen en el Apéndice A:

"En este párrafo, exponemos las principales ideas de Cosslett (1988) y Dagsvik (1994), quienes muestran cómo obtener una versión continua del modelo logit multinomial. Supongamos que {(ymk,εmk),kN} son los puntos de un proceso de puntos de Poisson en Y×R de intensidad dy×eεdε. Recordamos que esto implica que para S un subconjunto de Y×R, la probabilidad de que el hombre m no tenga conocidos en el conjunto S es exp(Seεdydε). A partir de (2), el hombre m elige a la mujer k entre sus conocidas de manera que se maximice su utilidad; es decir, el hombre m resuelve max.

Tomando Z como el valor de este máximo, se tiene para cualquier c \in \mathbb{R} \operatorname{Pr}(Z \leq c)=\operatorname{Pr}\left(U\left(x, y_k^m\right)+\varepsilon_k^m \leq c \forall k\right), que es exactamente la probabilidad de que el proceso de puntos de Poisson \left(y_k, \varepsilon_k^m\right) no tenga ningún punto en \{(y, \varepsilon): U(x, y)+\varepsilon>c\}; por lo tanto \begin{aligned} \log \operatorname{Pr}(Z \leq c) & =-\iint_{\mathcal{Y} \times \mathbb{R}} 1(U(x, y)+\varepsilon>c) d y e^{-\varepsilon} d \varepsilon \\ & =-\int_{\mathcal{Y}} \int_{c-U(x, y)} e^{-\varepsilon} d \varepsilon d y \\ & =-\int_{\mathcal{Y}} e^{-c+U(x, y)} d y \\ & =-\exp \left[-c+\log \int_{\mathcal{Y}} \exp U(x, y) d y\right] \end{aligned}

Por lo tanto Z es un Gumbel \left(\log \int_{\mathcal{Y}} \exp U(x, y) d y, 1\right). En particular, \mathbb{E}\left[\max_k \lbrace U\left(x, y_k^m\right)+\varepsilon_k^m \rbrace \right]=\log \int_{\mathcal{y}} \exp U(x, y) d y,

y las probabilidades de elección se dan por su densidad con respecto a la medida de Lebesgue

\pi(y \mid x)=\exp [U(x, y)] /\left[\int_{\mathcal{Y}} \exp U\left(x, y^{\prime}\right) d y^{\prime}\right] .

La misma lógica también implica que \lbrace \varepsilon_k: k \in \mathbb{N} \rbrace tiene una distribución Gumbel. De hecho, la probabilidad de que este proceso de puntos de Poisson no tenga elementos en el conjunto \{\varepsilon: \varepsilon>c\} es igual a \exp \left(-\int_c^{+\infty} e^{-\varepsilon} d \varepsilon\right)=\exp [-\exp (-c)] lo que equivale a decir que \operatorname{Pr}\left(\max _{k \in \mathbb{N}} \varepsilon_k \leq c\right)=\exp [-\exp (-c)]. Por último, cabe señalar que un argumento similar mostraría que m tiene casi con seguridad un número infinito, aunque contable, de conocidos, como se anunció. "

///

Creo que entiendo completamente la derivación hacia "Z es un Gumbel". Pero luego me quedé atascado al derivar quizás la ecuación más importante del modelo logit: \pi(y \mid x)=\exp [U(x, y)] /\left[\int_{\mathcal{Y}} \exp U\left(x, y^{\prime}\right) d y^{\prime}\right] . No veo cómo se desprende de la derivación anterior.

///

Incluso revisé uno de los artículos citados, Dagsvik 1994, y encontré en su apéndice (DEMOSTRACIÓN DEL TEOREMA 4) que hay una derivación similar (A.8 a A.9) pero nuevamente sin más explicación. En caso de que alguien esté interesado, las ecuaciones allí son "(A.8) $$ \begin{gathered} P\left(\sup _{T(z) \in A,(T(z), E(z)) \in H, z \in Z}(\hat{v}(\hat{p}(T(z)), T(z), K)+E(z)) \leqslant y\right) \\ = \begin{cases}\exp \left\{-e^{-y} \mu \int_A \exp (\hat{v}(\hat{p}(t), t, K)) G(d t)\right\} & \text { for } y \geqslant c, \\ 0 & \text { for } y

A partir de (A.8) obtenemos (A.9) \begin{gathered} P\left(\sup _{T(z) \in A,(T(z), E(z)) \in H, z \in Z}(\hat{v}(\hat{p}(T(z)), T(z), K)+E(z))\right. \\ \left.>\sup _{T(z) \in D-A,(T(z), E(z)) \in H, z \in Z}(\hat{v}(\hat{p}(T(z)), T(z), K)+E(z))\right) \\ \quad=\frac{\int_{u \leqslant t, u \in D} \exp (\hat{v}(\hat{p}(u), u, K)) G(d u)}{\int_D \exp (\hat{v}(\hat{p}(u), u, K)) G(d u)} \cdot\left(1-\exp \left(-\tilde{\Lambda}_c\right)\right), \end{gathered} donde \tilde{\Lambda}_c \equiv \mu e^{-c} \int_D \exp (\hat{v}(\hat{p}(t), t, K)) G(d t) .

Dado que \Lambda_c es el número esperado de puntos de Poisson en H \cap(D \times R) la probabilidad de que H \cap(D \times R) no esté vacío es igual a 1-\exp \left(-\tilde{\Lambda}_c\right) \text {. } "

3voto

Guid Puntos 370

Esta derivación sigue el mismo procedimiento que el utilizado en el modelo logit discreto.

Denotemos el índice del máximo dado y seleccionado como (y_i^m,\varepsilon_i^m), donde y_i^m = y. Tenemos que \operatorname{Pr}_i = \operatorname{Pr}\left(U\left(x, y_k^m\right)+\varepsilon_k^m \leq U\left(x, y_i^m\right)+\varepsilon_i^m \ \forall k \neq i \right) \\ = \exp \left( -\exp \left[-U\left(x, y_i^m\right)-\varepsilon_i^m+\log \int_{\mathcal{Y}} \exp U(x, y) d y\right] \right)​.

Luego podemos escribir las probabilidades de elección como $$\pi(y \mid x) = \int \operatorname{Pr}_i e^{-\varepsilon_i} d \varepsilon_i =\int \exp \left( -\exp \left[-U\left(x, y \right)-\varepsilon_i +\log \int_{\mathcal{Y}} \exp U(x, y') d y'\right] \right) e^{-\varepsilon_i} d \varepsilon_i \\ = \int \exp \left( -\exp \left[-\varepsilon_i\right] \exp \left[-U\left(x, y \right)\right] \int_{\mathcal{Y}} \exp U(x, y') d y' \right) e^{-\varepsilon_i} d \varepsilon_i \\ = \int \exp \left( -\exp \left[-\varepsilon_i\right] \int_{\mathcal{Y}} \exp \left[ U(x, y')-U\left(x, y \right) \right] d y \right)...

Luego definimos t=\exp(-\varepsilon_i) tal que -\exp (-\varepsilon_i) d \varepsilon_i=d t , tenemos que \pi(y \mid x) = \int_{\infty}^0 \exp \left( - t \int_{\mathcal{Y}} \exp \left[ U(x, y')-U\left(x, y \right) \right] d y' \right) (-dt) \\ = \int_0^{\infty} \exp \left( - t \int_{\mathcal{Y}} \exp \left[U(x, y')-U\left(x, y \right) \right]d y' \right) dt \\ = \frac{\exp \left( - t \int_{\mathcal{Y}} \exp \left[U(x, y')-U\left(x, y \right) \right] d y' \right)}{ - \int_{\mathcal{Y}} \exp \left[U(x, y')-U\left(x, y \right) \right] d y' } \left.\right|_0 ^{\infty} \\ = \frac{1}{ \int_{\mathcal{Y}} \exp \left[U(x, y')-U\left(x, y \right) \right] d y' } =\frac{\exp U\left(x, y \right)}{ \int_{\mathcal{Y}} \exp U(x, y') d y' }

Cualquier comentario es bienvenido.

2voto

tdm Puntos 146

Como afirman, \pi(y|x) es la densidad de \ln\left(\int_Y \exp(U(x,y) dy\right) (siendo la densidad la derivada de la función de distribución acumulada).

Si tomamos la derivada de \ln\left(\int_Y \exp(U(x,y')) dy' \right) con respecto a y, obtenemos:

\pi(y|x) = \frac{\exp(U(x,y))}{\int_Y \exp(U(x,y') dy'} El denominador proviene del operador \ln. El numerador proviene de la regla de la cadena dado que \dfrac{d \left(\int_Y exp(U(x,y')) dy'\right)}{dy} = \exp(U(x,y)).

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X