Para responder a la primera parte de su pregunta, no necesitamos más supuestos para la comparación de experimentos (además de algunas cuestiones de mensurabilidad).
Antes de continuar, fijaré algunas anotaciones a las que son estándar en la literatura de la teoría de los juegos, y en aras de mi conveniencia.
Un experimento (o estructura de información) se define como una tupla $(S,\pi)$ para un espacio de estados determinado $\Omega$ , donde $S$ es el conjunto de señales dotadas de alguna $\sigma$ -y el álgebra, y $$\pi: \Omega \rightarrow \Delta (S)$$ es una función de señal, donde $\pi(s|\omega)$ es la probabilidad de que $s$ se realiza dado el estado $\omega$ . En su notación, $X$ correspondería a $S$ y $P_{\theta}(x)=\pi(x|\theta)$ .
Para enunciar el Teorema de Equivalencia de Blackwell, necesitaríamos algunas definiciones más.
Un experimento $(S',\pi')$ es un $\textbf{garbling}$ de $(S,\pi)$ si existe un mapa $g: S \rightarrow \Delta(S')$ tal que $$\pi'(s'|\omega)=\sum_{s'\in S'}g(s'|s)\pi(s|\omega)$$ o $$\pi'= g \circ \pi$$ donde $\circ$ denota la composición de dos mapas estocásticos Intuitivamente, una función de desorden $g: S \rightarrow \Delta(S')$ puede pensarse que añade ruido, y difumina la información generada a partir de $\pi$ . Desde $g(s'|s)$ es la probabilidad de que la realización de la señal $s\in S$ se convierte en la realización de la señal $s'\in S'$ , $\pi'$ es una función de señal más incierta y ruidosa que $\pi$ Cuando el espacio de estados y el espacio de señales $S, S'$ es finito, se pueden utilizar matrices para representar el garbling. Sea $\pi_i(s_j)=\pi(s_j|\omega_i)$ . Un experimento $(S,\pi)$ puede representarse mediante una matriz $$\Pi=\begin{pmatrix} \pi_1(s) \\ \pi_2(s) \\ ... \\ \pi_m(s) \end{pmatrix}$$ Entonces, $(S',\pi')$ es una confusión de $(S,\pi)$ si existe un $n \times n'$ matriz estocástica G tal que $\Pi'=\Pi G$
Evidentemente, la confusión no es una orden completa, sino una $\textit{partial}$ orden. Muchos puntales de información no pueden compararse directamente entre sí.
Decimos que $(S,\pi)$ es $\textbf{more informative}$ que $(S',\pi')$ si para $\textit{any}$ finito $A$ y $u: A \times \Omega \rightarrow \mathbb{R}$ El responsable de la toma de decisiones prefiere $(S,\pi)$ en $(S',\pi')$ . Esta definición es muy fuerte ya que requiere que cualquier tomador de decisiones prefiera $(S,\pi)$ en $(S',\pi')$
Decimos que una distribución de acciones condicionada al estado, $\chi: \Omega \rightarrow \Delta(A)$ es $\textbf{feasible}$ en $(S,\pi)$ si existe la estrategia de DM $\sigma: S \rightarrow \Delta(A)$ tal que $\chi=\sigma \circ \pi$ . En otras palabras, $\chi$ es factible si se puede construir una estrategia de comportamiento $\sigma$ como una función sólo de las realizaciones de la señal, y la distribución de acción resultante $\sigma \circ \pi$ es $\chi$ . El conjunto de distribución factible de acciones es igual al conjunto de elección del DM.
Además, fijar alguna creencia previa sobre los estados $\mu \in \Delta (\Omega)$ . Para una realización de la señal dada $s$ un agente bayesiano actualizaría su creencia para formar una creencia posterior $\mu_s(\omega)=\frac{\mu(\omega)\pi(s|\omega)}{\sum_{\omega'\in\Omega}\mu(\omega')\pi(s|\omega')}$ . Dado que cada realización de la señal $s$ correspondería a una creencia posterior $\mu_s$ y la realización de la señal $s$ se genera de forma probabilística, cada experimento $(S,\pi)$ induciría una distribución sobre posteriors $\tau\in\Delta(\Delta(\Omega))$ . WLOG asumiendo todo $\mu_s\neq \mu_{s'}$ para los distintos $s\neq s'$ se puede ver $\tau(\mu_s)=\pi(s)=\sum_{\omega\in\Omega}\pi(s|\omega)\mu(\omega)$ . De hecho, $\sum_{supp(\tau)}\tau(\mu_s)\mu_s=\mu$ se puede ver a partir de un cálculo sencillo. Esta ecuación suele denominarse "restricción de verosimilitud de Bayes", y significa simplemente que la posterior esperada es sólo la anterior.
Decimos que una distribución $F$ es un $\textbf{Mean preserving spread}$ de $G$ si $G$ domina estocásticamente de segundo orden $F$ y $F$ y $G$ tiene la misma media. Hay algunas definiciones alternativas equivalentes a ésta, pero las obviaré.
Ahora, tenemos todos los elementos para enunciar el hermoso Teorema de Equivalencia de Blackwell (1951, 1953).
Los siguientes son equivalentes
- $(S',\pi')$ es una confusión de $(S, \pi)$
- Cualquier distribución factible de acciones bajo $(S',\pi')$ también es factible bajo $(S,\pi)$
- $(S,\pi)$ es más informativo que $(S',\pi')$
- $\tau$ es una media que preserva el espectro de $\tau'$ , donde $\tau$ es la distribución de posteriores inducida por $(S,\pi)$
El término $\textbf{Blackwell Order}$ se refiere al $\textit{partial}$ orden sobre el conjunto de todos los experimentos $\Pi$ , donde $\pi \succeq \pi'$ si y sólo si se cumple una de las cuatro condiciones anteriores.
Espero que esto responda a su primera pregunta.
Para la segunda parte, decimos que una estructura de información $(S*,\pi*)$ es un $\textbf{combination}$ de $(S,\pi)$ , $(S',\pi')$ si $$S*=S \times S'$$ y $$\sum_{s'\in S'}\pi^*(s,s'|\theta)=\pi(s|\theta)$$ $$\sum_{s\in S}\pi^*(s,s'|\theta)=\pi'(s'|\theta)$$ Nótese que la definición anterior no pone ninguna restricción a la estructura de correlación de $S$ un $S'$ . La única condición que exige es que $\pi*$ margina a $\pi$ y $\pi'$
Una estructura de información $(S*,\pi*)$ es un $\textbf{expansion}$ de $(S,\pi)$ si existe alguna estructura de información $(S',\pi')$ tal que $(S*,\pi*)$ es una combinación de $(S,\pi),(S',\pi')$
Si $S*$ es una expansión de $S$ , $S*$ es al menos tan informativo como $S$ . De hecho, son equivalentes a Blackwell. Esto se deduce directamente de las condiciones de equivalencia anteriores. Puede haber otras pruebas, pero por ahora utilizaré las condiciones de viabilidad.
Supongamos que $\chi: \Omega \rightarrow \Delta(A)$ es factible bajo $(S,\pi)$ . Entonces, existe algún $\sigma: S \rightarrow \Delta(A)$ tal que $$\chi_{\omega}(a)=\sum_{s}\pi(s|\omega)\sigma(a|s)$$ Definir $\sigma*: S \times S' \rightarrow \Delta(A)$ como $\sigma*(a|s,s')=\sigma(a|s)$ para todos $s \in S$ , $s'\in S'$ Tenemos $$\chi_{\omega}(a)=\sum_{s}\pi(s|\omega)\sigma(a|s)=\sum_{s}\sum_{s'}\pi*(s,s'|\omega)\sigma(a|s)=\sum_{s}\sum_{s'}\pi*(s,s'|\omega)\sigma*(a|s,s') \\ = \sum_{s,s'}\pi*(s,s'|\omega)\sigma*(a|s,s')$$ La segunda ecuación se desprende de la definición de expansión, y la tercera ecuación es simplemente nuestra definición de $\sigma*$ . Así, la expansión $(S*,\pi*)$ es más informativo que $(S,\pi)$
Para mostrar $(S,\pi)$ es más informativo que $(S*,\pi*)$ , sólo hay que definir $\sigma$ como $\sigma(a|s)=\sigma*(a|s,s')$ .
Espero que la respuesta le haya servido de ayuda. Cualquier comentario es bienvenido