Me gustaría que me ayudaran a entender el concepto de estructura de la información en el juego de la información incompleta en la p.6-7 de este papel.
Permítanme resumir el juego tal y como se describe en el documento.
Hay $N\in \mathbb{N}$ jugadores, con $i$ que denota un jugador genérico.
Existe un conjunto finito de estados $\Theta$ con $\theta$ que denota un estado genérico.
Un juego básico $G$ consiste en
-
para cada jugador $i$ un conjunto finito de acciones $A_i$ donde escribimos $A\equiv A_1\times A_2\times ... \times A_N$ y una función de utilidad $u_i: A\times \Theta \rightarrow \mathbb{R}$ .
-
un apoyo completo antes $\psi\in \Delta(\Theta)$ .
Una estructura de información $S$ consiste en
-
para cada jugador $i$ un conjunto finito de señales $T_i$ donde escribimos $T\equiv T_1\times T_2\times ... \times T_N$ .
-
una distribución de la señal $\pi: \Theta \rightarrow \Delta(T)$ .
Una regla de decisión del juego de información incompleta $(G,S)$ es un mapeo $$ \sigma: T\times \Theta\rightarrow \Delta(A) $$
Mi pregunta:
Interpreto $\pi(t|\theta)$ como una probabilidad de que, condicionada a la realización $\theta$ del estado, los jugadores reciben como señales $t_1,...,t_N$ respectivamente. Según la estructura de información dada, las señales son más o menos informativas.
Si esta interpretación es correcta, entonces me confunde la primera frase de la página 7 del documento enlazado: "Si hay información completa, es decir, si $\Theta$ es singleton, [...]".
Mi primera suposición fue que la información completa se caracteriza por especificar $S$ y no restringiendo el apoyo del Estado. En otras palabras, pensaba que la información completa corresponde a la estructura de información $\bar{S}\equiv (\bar{T},\bar{\pi})$ tal que
-
para cada jugador $i$ , $\bar{T}_i=\Theta$ .
-
$\bar{\pi}(\theta|\theta)=1$ .
¿En qué me equivoco? Por qué el autor define la información completa como si tuviera $|\Theta|=1$ ?