4 votos

Dificultad para entender la notación relacionada de la teoría de la probabilidad con la teoría de los juegos

La pregunta que tengo es un poco técnica y tiene que ver con la notación y la combinación entre algunas propiedades matemáticas en la teoría de la probabilidad de la economía de la información.

Diga $\mathcal{I}=(X,\mu)$ y $\mathcal{J}=(Y,\nu)$ son espacios de probabilidad medibles, donde $\mu$ y $\nu$ denotan las distribuciones de probabilidad sobre $X$ y $Y$ respectivamente. Entonces, definimos $\phi:X\to\Delta(Y)$ , donde $\Delta(Y)$ es el simplex de $Y$ . Si la imagen de $\mu$ por $\phi$ es $\nu$ entonces sostiene $$\mathbb{E}_{\mu}\phi(x)(y)=\nu(y),\quad \text{where $ \phi(x)(y) $ denotes the conditional probability $ \phi(y|x) $}$$

Tenga en cuenta que $\mu$ y $\nu$ son medidas de probabilidad s.t. para cada $x^i$ tal que $\mu(x^i)>0$ entonces $p(x^i)\in\Delta(X^{-i})$ denota la probabilidad condicional de $\mu$ dado $x^i$ en $X^{-i}$ : $$p(x^i)(x^{-i})=\mu(x^{-i}|x^i)=\frac{\mu(x^{-i},x^{i})}{\mu(x^i)}$$

Además, tenga en cuenta que $\mu(x^i)$ significa $\mu(\{x^i\}\times X^{-i})$ .

Para ayudarte a entender la notación, desde la teoría de juegos imagina que $i=\{1,2,3\}$ entonces $X=X^1\times X^2\times X^3= \{a^1,b^1\}\times\{a^2,b^2\}\times\{a^3,b^3\}$ y $x=(\underbrace{a^1}_{x^1},\underbrace{a^2}_{x^2},\underbrace{a^3}_{x^1})$

Aún más, se definen las siguientes probabilidades. Sea $r$ denotan la probabilidad ex-ante y $q$ la probabilidad ex-post, se definen como sigue en $\Delta(Y^{-i})$ :

$$r(x^i)(y^{i})= P_{\phi}(y^{i}|x^i),\quad\text{and}\quad q(y^i)(y^{i})= P_{\phi}(y^{i}|y^i)$$

para $P_{\phi}(x^i,y^i)>0$ , donde $P_{\phi}(x^i,y^i)=\mu(x^i)\phi^{i}(x^i)(y^i)$ denota la probabilidad inducida en $X\times Y$ por $\mu$ y la probabilidad de transición $\phi$ entonces $r(x^i)$ y $q(y^i)$ son vectores aleatorios con valores en $\Delta(Y^{-i})$ y $P_{\phi}(y^i|x^i)=\phi^{i}(x^i)(y^i)$ y $r(x^i)=\mathbb{E}_{p(x^i)}\phi^{-i}(x^{-i})$

$\textit{Question:}$ Me cuesta entender cómo se calcula $r()$ y $q()$ con respecto a $\mu$ y $\nu$ también. No puedo aclarar a partir de la notación cómo están conectadas las probabilidades ex-post y ex-ante con $\phi$ , $\mu$ , $\nu$ y $p$ ?

Creo que $q(y^i)(y^{i})$ es igual a $\frac{\nu(y^{-i},y^i)}{\nu(y^i)}$ pero no puedo entender cómo hacer la transición de $q(y^i)(y^{i})= P_{\phi}(y^{i}|y^i)=\dots=\frac{\nu(y^{-i},y^i)}{\nu(y^i)}$ . También cuál es la fórmula de $r(x^i)(y^{i})$ y cómo se llega al resultado de que $r(x^i)=\mathbb{E}_{p(x^i)}\phi^{-i}(x^{-i})$ ?

También parece que $p$ es la versión "atrasada" de $\phi$ . Mientras que $\phi$ le indica la probabilidad de cada valor de $Y$ dado el valor de $X$ la función $p$ te dice, dado $y$ la probabilidad condicional de que haya sido producida por cada $x$ . Así que también podría afirmar que $P_{\phi}(x,y)=\nu(y)p(y)(x)=\mu(x)\phi(x)(y)$ ?

$\textit{Hint:}$ Tenga en cuenta que la noación $f(x)(y)=f(y|x)$ en cada situación y $f(x^i)$ es la probabilidad condicional $f(x^i)(x^{-i})=f(x^{-i}|x^{i})$

6voto

tdm Puntos 146

Tenemos que ${\cal I} = ((X^i)_i, \mu)$ y ${\cal J} = ((Y^i)_i, \nu)$ son dos estructuras de información.

Un mapa de interpretación para el jugador $i$ es un mapeo $\phi^i: X^i \to \Delta(Y^i)$ por lo que se asocia con cada $x^i$ una distribución sobre $Y^i$ .

Dejemos que $x^i \in X^i$ . Entonces $\phi^i(x^i)$ es una distribución sobre $Y^i$ así que $\phi(x^i)(y^i)$ es la probabilidad de esta distribución adjunta al resultado $y^i$ .

Entonces para $x = (x^1, \ldots, x^I)$ podemos definir: $$ \phi: \prod_i X^i \to \Delta\left(\prod_i Y^i\right) $$ De tal manera que para todos los $x = (x^1,\ldots, x^I)$ y $y = (y^1,\ldots, y^I)$ tenemos la medida de probabilidad del producto: $$ \phi(x)(y) = \phi^1(x^1)(y^1) \cdot \phi^2(x^2)(y^2) \cdot \ldots \cdot \phi^I(x^I)(y^I) $$ Tenemos que una interpretación $\phi= (\phi^i)_i$ es consistente si para cada $x \in \prod_i X^i$ y $y \in \prod_i Y^i$ : $$ \mathbb{E}_\mu \phi(x)(y^i) = \nu(y),\\ \leftrightarrow \sum_{x \in X} \phi(x)(y) \,\, \mu(x) = \nu(y) $$ Ahora defina $\phi(x)(y) \mu(x) = P(x,y)$ . Entonces la suma de $P(x, y)$ sobre todo $x$ y $y$ es igual a 1: $$ \sum_x \sum_y P(x,y) = \sum_x \sum_y \phi(x)(y)\,\, \mu(x) = \sum_y \nu(y) = 1 $$ También las distribuciones marginales satisfacen: $$ \begin{align*} &\sum_x P(x,y) = \sum_x \phi(x)(y)\mu(x) = \nu(y),\\ &\sum_y P(x,y) = \sum_y \phi(x)(y) \mu(x) = \mu(x) \sum_y \phi(x)(y) = \mu(x). \end{align*} $$ Así que $P(x,y)$ actúan como una distribución de probabilidad conjunta sobre $\prod_i X^i \times \prod_i Y^i$ con los marginales $\nu$ y $\mu$ . Entonces $\phi(x)(y) = \dfrac{P(x,y)}{\mu(x)}$ que es la misma que la probabilidad condicional $\phi(x)(y) = P(y|x)$ .

Podemos escribir los marginales $P(y) = \nu(y)$ y $P(x) = \mu(x)$ . Además, deja que $P(y^i)$ sea la distribución marginal de $P$ con respecto a $y^i$ , $P(x^i)$ la distribución marginal de $P$ con respecto a $x^i$ y así sucesivamente.

Entonces podemos definir: $$ q(y^i)(y^{-i}) = P(y^{-i}|y^i) = \dfrac{P(y^i, y^{-i})}{ P(y^i)}. $$ Y: $$ r(x^i)(y^{-i}) = P(y^{-i}|x^i) = \dfrac{ P(x^i, y^{-i})}{ P(x^i)}. $$

Creo que $q(y^i)(y^{−i})$ es igual a $\frac{\nu(y^{-i},y^i)}{\nu(y^i)}$

Creo que tienes razón. Observe que $P(y^i, y^{-i}) = \nu(y^i, y^{-i})$ y $P(y^i) = \sum_{y^{-i}} P(y^i, y^{-i}) = \sum_{y^{-i}} \nu(y^i, y^{-i}) = \nu(y^i)$ Así es (por la regla de Bayes): $$ q(y^i)(y^{-i}) = \dfrac{P(y^i, y^{-i})}{P(y^i)} = \dfrac{\nu(y^i, y^{-i})}{\nu(y^i)} = \nu(y^{-i}|y^i) $$

También cuál es la fórmula de $r(x^i)(y^{−i})$ y cómo se llega al resultado de que $r(x^i)=\mathbb{E}_{p(x^i)}\phi^{-i}(x^{-i})$ ?

El cálculo de esta expresión es un poco más complicado. Primero: $$ \begin{align*} P(x^i, y^{-i}) &= \sum_{x^{-i}, y^{i}} P(x^i, x^{-i}, y^i, y^{-i}),\\ &= \sum_{x^{-i}, y^{i}} \phi(x^i, x^{-i})(y^i, y^{-i}) \,\, \mu(x^i, x^{-i}),\\ &=\sum_{x^{-i}, y^i} \mu(x^i, x^{-i}) \left[\left(\prod_{j \ne i} \phi^j(x^j)(y^j)\right)\phi^i(x^i)(y^i) \right],\\ &=\sum_{x^{-i}} \mu(x^i, x^{-i}) \left(\prod_{j \ne i}\phi^j(x^j)(y^j)\right) \underbrace{\sum_{y^{i}} \phi^i(x^i)(y^i)}_{=1},\\ &=\sum_{x^{-i}} \mu(x^i,x^{-i})\,\, \phi^{-i}(x^{-i})(y^{-i}),\\ \end{align*} $$ El siguiente tiene, $$ P(x^i) = \sum_{x^{-i}} P(x^i, x^{-i}) = \sum_{x^{-i}} \mu(x^i, x^{-i}) = \mu(x^i) $$ Entonces: $$ \begin{align*} r(x^i)(y^{-i}) &= \dfrac{P(x^i, y^{-i})}{P(x^i)},\\ &= \sum_{x^{-i}} \frac{\mu(x^i, x^{-i})}{\mu(x^i)} \phi^{-i}(x^{-i})(y^{-i}),\\ &= \sum_{x^{-i}} p(x^i)(x^{-i})\,\, \phi^{-i}(x^{-i})(y^{-i}),\\ &= \mathbb{E}_{p(x^i)} \phi^{-i}(x^{-i})(y^{-i}) \end{align*} $$

Preguntas y respuestas adicionales

  1. ¿Significa esto que la medida del producto se traduce siempre en una probabilidad condicional?

No, por eso los autores imponen la definición de que la interpretación debe ser consistente .

  1. ¿Has visto algún libro de texto que tenga la misma notación que aquí?

No. En mi opinión, la notación es bastante incómoda para trabajar ;-)

  1. Por qué $P(y^i, y^{-i}) = \nu(y^i, y^{-})$ .

Dejemos que $y = (y^i, y^{-i})$ entonces:

$P(y^i, y^{-i}) = P(y)$ que es la distribución marginal de $P(x,y)$ con respecto a $y$ . Condición $(1)$ muestra que esto es igual a $\nu(y) = \nu(y^i, y^{-i})$ .

  1. ¿Cómo has averiguado $P(x^i, y^{-i}) = \sum_{x^{-i}, y^i} P(x^i, x^{-i}, y^i, y^{-i})$ .

Similar al punto 3, $P(x^i, y^{-i})$ es la distribución marginal $P$ con respecto a $(x^i, y^{-i})$ Así que tienes que "integrarte $(x^{-i}, y^i)$ . Como estos son finitos, esto equivale simplemente a tomar la suma.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X