4 votos

¿Cuál es la intuición detrás del Teorema de Equivalencia de Blackwell sobre las Estructuras de Información?

Supongamos que tenemos un juego bayesiano en el que la estructura de información se define como $P^X=\{(X,\mathcal{X},P_\theta)\}_{\theta\in\Theta}$ donde una señal generada por la estructura de información en cada estado $\theta\in\Theta$ es sólo una variable aleatoria que toma su valor en $(X,\mathcal{X})$ dotado de la distribución de probabilidad $P_\theta$ . Si tenemos otra estructura de información $Q^Y=\{(Y,\mathcal{Y},Q_\theta)\}_{\theta\in\Theta}$ ¿qué supuestos son necesarios para poder comparar estas estructuras de información y cómo se aplica el Teorema de Equivalencia de Estructuras de Información de Blackwell para realizar la comparación?

Además, si una de las dos estructuras de información fuera una expansión de la otra, digamos $P^X$ es una expansión de $Q^Y$ ¿Qué cambiaría esto?

5voto

Travis Puntos 16

Para responder a la primera parte de su pregunta, no necesitamos más supuestos para la comparación de experimentos (además de algunas cuestiones de mensurabilidad).

Antes de continuar, fijaré algunas anotaciones a las que son estándar en la literatura de la teoría de los juegos, y en aras de mi conveniencia.

Un experimento (o estructura de información) se define como una tupla $(S,\pi)$ para un espacio de estados determinado $\Omega$ , donde $S$ es el conjunto de señales dotadas de alguna $\sigma$ -y el álgebra, y $$\pi: \Omega \rightarrow \Delta (S)$$ es una función de señal, donde $\pi(s|\omega)$ es la probabilidad de que $s$ se realiza dado el estado $\omega$ . En su notación, $X$ correspondería a $S$ y $P_{\theta}(x)=\pi(x|\theta)$ .

Para enunciar el Teorema de Equivalencia de Blackwell, necesitaríamos algunas definiciones más.

Un experimento $(S',\pi')$ es un $\textbf{garbling}$ de $(S,\pi)$ si existe un mapa $g: S \rightarrow \Delta(S')$ tal que $$\pi'(s'|\omega)=\sum_{s'\in S'}g(s'|s)\pi(s|\omega)$$ o $$\pi'= g \circ \pi$$ donde $\circ$ denota la composición de dos mapas estocásticos Intuitivamente, una función de desorden $g: S \rightarrow \Delta(S')$ puede pensarse que añade ruido, y difumina la información generada a partir de $\pi$ . Desde $g(s'|s)$ es la probabilidad de que la realización de la señal $s\in S$ se convierte en la realización de la señal $s'\in S'$ , $\pi'$ es una función de señal más incierta y ruidosa que $\pi$ Cuando el espacio de estados y el espacio de señales $S, S'$ es finito, se pueden utilizar matrices para representar el garbling. Sea $\pi_i(s_j)=\pi(s_j|\omega_i)$ . Un experimento $(S,\pi)$ puede representarse mediante una matriz $$\Pi=\begin{pmatrix} \pi_1(s) \\ \pi_2(s) \\ ... \\ \pi_m(s) \end{pmatrix}$$ Entonces, $(S',\pi')$ es una confusión de $(S,\pi)$ si existe un $n \times n'$ matriz estocástica G tal que $\Pi'=\Pi G$

Evidentemente, la confusión no es una orden completa, sino una $\textit{partial}$ orden. Muchos puntales de información no pueden compararse directamente entre sí.

Decimos que $(S,\pi)$ es $\textbf{more informative}$ que $(S',\pi')$ si para $\textit{any}$ finito $A$ y $u: A \times \Omega \rightarrow \mathbb{R}$ El responsable de la toma de decisiones prefiere $(S,\pi)$ en $(S',\pi')$ . Esta definición es muy fuerte ya que requiere que cualquier tomador de decisiones prefiera $(S,\pi)$ en $(S',\pi')$

Decimos que una distribución de acciones condicionada al estado, $\chi: \Omega \rightarrow \Delta(A)$ es $\textbf{feasible}$ en $(S,\pi)$ si existe la estrategia de DM $\sigma: S \rightarrow \Delta(A)$ tal que $\chi=\sigma \circ \pi$ . En otras palabras, $\chi$ es factible si se puede construir una estrategia de comportamiento $\sigma$ como una función sólo de las realizaciones de la señal, y la distribución de acción resultante $\sigma \circ \pi$ es $\chi$ . El conjunto de distribución factible de acciones es igual al conjunto de elección del DM.

Además, fijar alguna creencia previa sobre los estados $\mu \in \Delta (\Omega)$ . Para una realización de la señal dada $s$ un agente bayesiano actualizaría su creencia para formar una creencia posterior $\mu_s(\omega)=\frac{\mu(\omega)\pi(s|\omega)}{\sum_{\omega'\in\Omega}\mu(\omega')\pi(s|\omega')}$ . Dado que cada realización de la señal $s$ correspondería a una creencia posterior $\mu_s$ y la realización de la señal $s$ se genera de forma probabilística, cada experimento $(S,\pi)$ induciría una distribución sobre posteriors $\tau\in\Delta(\Delta(\Omega))$ . WLOG asumiendo todo $\mu_s\neq \mu_{s'}$ para los distintos $s\neq s'$ se puede ver $\tau(\mu_s)=\pi(s)=\sum_{\omega\in\Omega}\pi(s|\omega)\mu(\omega)$ . De hecho, $\sum_{supp(\tau)}\tau(\mu_s)\mu_s=\mu$ se puede ver a partir de un cálculo sencillo. Esta ecuación suele denominarse "restricción de verosimilitud de Bayes", y significa simplemente que la posterior esperada es sólo la anterior.

Decimos que una distribución $F$ es un $\textbf{Mean preserving spread}$ de $G$ si $G$ domina estocásticamente de segundo orden $F$ y $F$ y $G$ tiene la misma media. Hay algunas definiciones alternativas equivalentes a ésta, pero las obviaré.

Ahora, tenemos todos los elementos para enunciar el hermoso Teorema de Equivalencia de Blackwell (1951, 1953).

Los siguientes son equivalentes

  1. $(S',\pi')$ es una confusión de $(S, \pi)$
  2. Cualquier distribución factible de acciones bajo $(S',\pi')$ también es factible bajo $(S,\pi)$
  3. $(S,\pi)$ es más informativo que $(S',\pi')$
  4. $\tau$ es una media que preserva el espectro de $\tau'$ , donde $\tau$ es la distribución de posteriores inducida por $(S,\pi)$

El término $\textbf{Blackwell Order}$ se refiere al $\textit{partial}$ orden sobre el conjunto de todos los experimentos $\Pi$ , donde $\pi \succeq \pi'$ si y sólo si se cumple una de las cuatro condiciones anteriores.

Espero que esto responda a su primera pregunta.

Para la segunda parte, decimos que una estructura de información $(S*,\pi*)$ es un $\textbf{combination}$ de $(S,\pi)$ , $(S',\pi')$ si $$S*=S \times S'$$ y $$\sum_{s'\in S'}\pi^*(s,s'|\theta)=\pi(s|\theta)$$ $$\sum_{s\in S}\pi^*(s,s'|\theta)=\pi'(s'|\theta)$$ Nótese que la definición anterior no pone ninguna restricción a la estructura de correlación de $S$ un $S'$ . La única condición que exige es que $\pi*$ margina a $\pi$ y $\pi'$

Una estructura de información $(S*,\pi*)$ es un $\textbf{expansion}$ de $(S,\pi)$ si existe alguna estructura de información $(S',\pi')$ tal que $(S*,\pi*)$ es una combinación de $(S,\pi),(S',\pi')$

Si $S*$ es una expansión de $S$ , $S*$ es al menos tan informativo como $S$ . De hecho, son equivalentes a Blackwell. Esto se deduce directamente de las condiciones de equivalencia anteriores. Puede haber otras pruebas, pero por ahora utilizaré las condiciones de viabilidad.

Supongamos que $\chi: \Omega \rightarrow \Delta(A)$ es factible bajo $(S,\pi)$ . Entonces, existe algún $\sigma: S \rightarrow \Delta(A)$ tal que $$\chi_{\omega}(a)=\sum_{s}\pi(s|\omega)\sigma(a|s)$$ Definir $\sigma*: S \times S' \rightarrow \Delta(A)$ como $\sigma*(a|s,s')=\sigma(a|s)$ para todos $s \in S$ , $s'\in S'$ Tenemos $$\chi_{\omega}(a)=\sum_{s}\pi(s|\omega)\sigma(a|s)=\sum_{s}\sum_{s'}\pi*(s,s'|\omega)\sigma(a|s)=\sum_{s}\sum_{s'}\pi*(s,s'|\omega)\sigma*(a|s,s') \\ = \sum_{s,s'}\pi*(s,s'|\omega)\sigma*(a|s,s')$$ La segunda ecuación se desprende de la definición de expansión, y la tercera ecuación es simplemente nuestra definición de $\sigma*$ . Así, la expansión $(S*,\pi*)$ es más informativo que $(S,\pi)$

Para mostrar $(S,\pi)$ es más informativo que $(S*,\pi*)$ , sólo hay que definir $\sigma$ como $\sigma(a|s)=\sigma*(a|s,s')$ .

Espero que la respuesta le haya servido de ayuda. Cualquier comentario es bienvenido

1 votos

En realidad, las versiones infinitas del teorema suelen requerir mucho más que algunos supuestos de mensurabilidad. Normalmente, hay que suponer la existencia de densidades.

0 votos

@MichaelGreinecker Gracias por su comentario. ¿Puedes explicar más sobre los problemas de densidad? cualquier referencia sería útil

0 votos

La referencia estándar para este tipo de cuestiones es el libro "Mathematical theory of Statistics" de Strasser, cuya lectura es muy, muy dura. La referencia más legible que conozco es el capítulo 1 del libro "Statistical Experiments and Decisions: Asymptotic Theory" de Shiryaev y Spokoiny, que sigue siendo bastante técnico. Allí se puede buscar el supuesto de que un experimento estadístico está "dominado", lo que significa que cada medida de probabilidad admite una densidad con respecto a un único $\sigma$ -medida finita.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X