2 votos

El concepto de estructura de la información en los juegos de información incompleta

Me gustaría que me ayudaran a entender el concepto de estructura de la información en el juego de la información incompleta en la p.6-7 de este papel.


Permítanme resumir el juego tal y como se describe en el documento.

Hay $N\in \mathbb{N}$ jugadores, con $i$ que denota un jugador genérico.

Existe un conjunto finito de estados $\Theta$ con $\theta$ que denota un estado genérico.

Un juego básico $G$ consiste en

  • para cada jugador $i$ un conjunto finito de acciones $A_i$ donde escribimos $A\equiv A_1\times A_2\times ... \times A_N$ y una función de utilidad $u_i: A\times \Theta \rightarrow \mathbb{R}$ .

  • un apoyo completo antes $\psi\in \Delta(\Theta)$ .

Una estructura de información $S$ consiste en

  • para cada jugador $i$ un conjunto finito de señales $T_i$ donde escribimos $T\equiv T_1\times T_2\times ... \times T_N$ .

  • una distribución de la señal $\pi: \Theta \rightarrow \Delta(T)$ .

Una regla de decisión del juego de información incompleta $(G,S)$ es un mapeo $$ \sigma: T\times \Theta\rightarrow \Delta(A) $$


Mi pregunta:

Interpreto $\pi(t|\theta)$ como una probabilidad de que, condicionada a la realización $\theta$ del estado, los jugadores reciben como señales $t_1,...,t_N$ respectivamente. Según la estructura de información dada, las señales son más o menos informativas.

Si esta interpretación es correcta, entonces me confunde la primera frase de la página 7 del documento enlazado: "Si hay información completa, es decir, si $\Theta$ es singleton, [...]".

Mi primera suposición fue que la información completa se caracteriza por especificar $S$ y no restringiendo el apoyo del Estado. En otras palabras, pensaba que la información completa corresponde a la estructura de información $\bar{S}\equiv (\bar{T},\bar{\pi})$ tal que

  • para cada jugador $i$ , $\bar{T}_i=\Theta$ .

  • $\bar{\pi}(\theta|\theta)=1$ .

¿En qué me equivoco? Por qué el autor define la información completa como si tuviera $|\Theta|=1$ ?

2voto

Lo que está definiendo es la estructura completa de la información $\bar{S}$ con $\bar{T}_{i}=\Theta$ para todos $i$ y $$ \bar{\pi}(t|\theta) = \begin{cases} \ 1, & \text{if} \;\; t_{i}= \theta \text{ for all} \; i \\ 0, & \text{otherwise}, \end{cases} $$ para todos $\theta \in \Theta$ .

Tenga en cuenta que esto no es lo mismo que el caso en el que $\Theta$ es un singleton, pero es más bien una estructura de información extrema. Los mismos autores definen esta aquí (Bayes Correlated Equilibrium and the Comparison of Information Structures - Bergemann & Morris), no entiendo por qué no incluyeron este detalle en el documento que estás viendo.

2voto

mat_jack1 Puntos 209

Las dos formulaciones son equivalentes en el sentido de que si cada tipo de jugador aprende siempre el estado del mundo, no hay incertidumbre y realmente no hay necesidad de llevar el estado realizado como una variable. Al suponer $|\Theta|=1$ simplificas la notación sin perder generalidad (por supuesto, pierdes algo de información, pero esto es irrelevante para los fines de ese documento). Si quieres, puedes asumir que las afirmaciones de los autores son verdaderas estado por estado.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X