Estoy leyendo Dupuy & Galichon (2014), que amplían la estimación del modelo de emparejamiento en Choo & Siow (2006) a tipos continuos. La forma en que construyen el modelo logit continuo se basa en las ideas de Cosslett (1988) y Dagsvik (1994) quienes "han sugerido independientemente el uso de procesos máximos-estables para modelar elecciones continuas".
Los detalles del modelo logit continuo se describen en el Apéndice A:
"En este párrafo, exponemos las principales ideas de Cosslett (1988) y Dagsvik (1994), quienes muestran cómo obtener una versión continua del modelo logit multinomial. Supongamos que $\lbrace\left(y_k^m, \varepsilon_k^m\right), k \in \mathbb{N} \rbrace$ son los puntos de un proceso de puntos de Poisson en $\mathcal{Y} \times \mathbb{R}$ de intensidad $d y \times e^{-\varepsilon} d \varepsilon$. Recordamos que esto implica que para $S$ un subconjunto de $\mathcal{Y} \times \mathbb{R}$, la probabilidad de que el hombre $m$ no tenga conocidos en el conjunto $S$ es $\exp \left(-\int_S e^{-\varepsilon} d y d \varepsilon\right)$. A partir de (2), el hombre $m$ elige a la mujer $k$ entre sus conocidas de manera que se maximice su utilidad; es decir, el hombre $m$ resuelve $$\max_k \lbrace U\left(x,y_k^m\right)+\varepsilon_k^m \rbrace$$.
Tomando $Z$ como el valor de este máximo, se tiene para cualquier $c \in \mathbb{R}$ $$ \operatorname{Pr}(Z \leq c)=\operatorname{Pr}\left(U\left(x, y_k^m\right)+\varepsilon_k^m \leq c \forall k\right), $$ que es exactamente la probabilidad de que el proceso de puntos de Poisson $\left(y_k, \varepsilon_k^m\right)$ no tenga ningún punto en $\{(y, \varepsilon): U(x, y)+\varepsilon>c\}$; por lo tanto $$ \begin{aligned} \log \operatorname{Pr}(Z \leq c) & =-\iint_{\mathcal{Y} \times \mathbb{R}} 1(U(x, y)+\varepsilon>c) d y e^{-\varepsilon} d \varepsilon \\ & =-\int_{\mathcal{Y}} \int_{c-U(x, y)} e^{-\varepsilon} d \varepsilon d y \\ & =-\int_{\mathcal{Y}} e^{-c+U(x, y)} d y \\ & =-\exp \left[-c+\log \int_{\mathcal{Y}} \exp U(x, y) d y\right] \end{aligned} $$
Por lo tanto $Z$ es un Gumbel $\left(\log \int_{\mathcal{Y}} \exp U(x, y) d y, 1\right)$. En particular, $\mathbb{E}\left[\max_k \lbrace U\left(x, y_k^m\right)+\varepsilon_k^m \rbrace \right]=\log \int_{\mathcal{y}} \exp U(x, y) d y,$
y las probabilidades de elección se dan por su densidad con respecto a la medida de Lebesgue
$$\pi(y \mid x)=\exp [U(x, y)] /\left[\int_{\mathcal{Y}} \exp U\left(x, y^{\prime}\right) d y^{\prime}\right] .$$
La misma lógica también implica que $\lbrace \varepsilon_k: k \in \mathbb{N} \rbrace$ tiene una distribución Gumbel. De hecho, la probabilidad de que este proceso de puntos de Poisson no tenga elementos en el conjunto $\{\varepsilon: \varepsilon>c\}$ es igual a $$ \exp \left(-\int_c^{+\infty} e^{-\varepsilon} d \varepsilon\right)=\exp [-\exp (-c)] $$ lo que equivale a decir que $\operatorname{Pr}\left(\max _{k \in \mathbb{N}} \varepsilon_k \leq c\right)=\exp [-\exp (-c)]$. Por último, cabe señalar que un argumento similar mostraría que $m$ tiene casi con seguridad un número infinito, aunque contable, de conocidos, como se anunció. "
///
Creo que entiendo completamente la derivación hacia "$Z$ es un Gumbel". Pero luego me quedé atascado al derivar quizás la ecuación más importante del modelo logit: $$ \pi(y \mid x)=\exp [U(x, y)] /\left[\int_{\mathcal{Y}} \exp U\left(x, y^{\prime}\right) d y^{\prime}\right]$$ . No veo cómo se desprende de la derivación anterior.
///
Incluso revisé uno de los artículos citados, Dagsvik 1994, y encontré en su apéndice (DEMOSTRACIÓN DEL TEOREMA 4) que hay una derivación similar (A.8 a A.9) pero nuevamente sin más explicación. En caso de que alguien esté interesado, las ecuaciones allí son "(A.8) $$ \begin{gathered} P\left(\sup _{T(z) \in A,(T(z), E(z)) \in H, z \in Z}(\hat{v}(\hat{p}(T(z)), T(z), K)+E(z)) \leqslant y\right) \\ = \begin{cases}\exp \left\{-e^{-y} \mu \int_A \exp (\hat{v}(\hat{p}(t), t, K)) G(d t)\right\} & \text { for } y \geqslant c, \\ 0 & \text { for } y
A partir de (A.8) obtenemos (A.9) $$ \begin{gathered} P\left(\sup _{T(z) \in A,(T(z), E(z)) \in H, z \in Z}(\hat{v}(\hat{p}(T(z)), T(z), K)+E(z))\right. \\ \left.>\sup _{T(z) \in D-A,(T(z), E(z)) \in H, z \in Z}(\hat{v}(\hat{p}(T(z)), T(z), K)+E(z))\right) \\ \quad=\frac{\int_{u \leqslant t, u \in D} \exp (\hat{v}(\hat{p}(u), u, K)) G(d u)}{\int_D \exp (\hat{v}(\hat{p}(u), u, K)) G(d u)} \cdot\left(1-\exp \left(-\tilde{\Lambda}_c\right)\right), \end{gathered} $$ donde $$ \tilde{\Lambda}_c \equiv \mu e^{-c} \int_D \exp (\hat{v}(\hat{p}(t), t, K)) G(d t) . $$
Dado que $\Lambda_c$ es el número esperado de puntos de Poisson en $H \cap(D \times R)$ la probabilidad de que $H \cap(D \times R)$ no esté vacío es igual a $$ 1-\exp \left(-\tilde{\Lambda}_c\right) \text {. } $$"