Así que permítanme comenzar con la razón por la que ambos modelos me preocupan.
En el primer modelo, el modelo Markowitziano Frecuentista, el método de Ito asume que todos los parámetros son conocidos. No se necesitan estimadores.
Esto es un gran problema porque White en 1958 demostró que los modelos con $\tilde{w}=Rw+\varepsilon, R>1$ no tienen solución si $R$ tiene que ser estimado en el paradigma frecuencial. Aunque se podrían utilizar métodos como la regresión de Theil, sería inconsistente con la teoría económica. El método de Ito sólo es válido si se conocen los verdaderos parámetros de Apple Computer. Yo no los conozco.
En el marco bayesiano, son los parámetros los que son aleatorios y no los datos. Puede adoptar una de las dos formas, la objetiva y la subjetiva.
En la forma objetiva, $\theta=k$ pero es inobservable. El observador crea una distribución de probabilidad a priori sobre la ubicación de $\theta$ . Si se piensa en la teoría de los juegos, $\theta$ es elegido por la naturaleza en el momento cero. $\theta$ es una variable aleatoria si la aleatoriedad se concibe como incertidumbre y no como azar.
En la forma subjetiva, $\theta\in{K}$ y la naturaleza atrae $\theta$ al principio de cada experimento. $\theta$ no es una constante, es una verdadera variable aleatoria.
Si mira la página web que ha proporcionado, los métodos bayesianos no proporcionan una respuesta en un solo punto como lo hacen los métodos de hipótesis nula. No hay ningún equivalente a $\bar{x}$ o $s^2$ . En cambio, existe una distribución de posibles valores para $\mu$ .
Sólo se puede llegar a puntos únicos imponiendo una función de utilidad, que es lo que han hecho.
Es la interpretación de esto lo que hace que la solución sea problemática.
Según la interpretación subjetiva, estás anticipando que la naturaleza hará un sorteo muy malo en el próximo periodo de tiempo. De hecho, estás anticipando, en cierto sentido, que el peor sorteo que haya ocurrido nunca será el siguiente.
Tenga en cuenta que se trata de los parámetros y NO las realizaciones del mercado. No implica una caída. Por ejemplo, supongamos que $\mu_{min}=1.01$ que no excluye el valor realizado de $S_{t+1}$ de ser un aumento del 95%. Dado que se trata de una elección sistémica, lo que realmente se está haciendo, de forma implícita, es asumir el peor conjunto de condiciones económicas futuras durante el próximo periodo.
En la interpretación objetiva, cada punto de la parte posterior es una solución posible válida. Evidentemente, algunos puntos de la parte posterior son tan improbables que una persona podría descartarlos. La solución que proporcionan está en la región densa pero improbable.
En otras palabras, podría ser el valor real de los parámetros, pero es poco probable. No obstante, es poco probable que sea a la baja. En el peor de los casos, es probable que sean los resultados sistemáticos, en caso de que tenga una mala muestra histórica para construir su posterior. Al elegir el peor caso, es probable que siempre se sorprenda.
El equivalente frecuencial aproximado sería utilizar las estimaciones de los parámetros de la parte inferior de los intervalos de confianza del 99,9%.
Cada punto de un intervalo de confianza es equiprobable. Los intervalos de confianza son una distribución uniforme. Si tuvieras la función de utilidad correcta, entonces elegir la parte inferior de cada intervalo de confianza sería una solución igualmente válida.
Por lo que veo, no hay nada que objetar a la hora de introducir el valor inferior de un intervalo de confianza en lugar de utilizar el MVUE. Aunque sigue sin ser un estimador válido, según White, nada hace que sea "incorrecto" ignorar el MVUE en favor de algún punto de un intervalo.
Tengo otra preocupación, pero me llevaría mucho trabajo determinar su validez. Por mucho trabajo, quiero decir que podría resolverla en una hora o podría llevarme semanas. No me importa tanto, así que no voy a trabajar en ello, pero lo proporciono a modo de divulgación.
Desde el punto de vista axiomático, sólo hay una diferencia entre los axiomas de Kolmogorov y el teorema del libro holandés de De Finetti. Tiene que ver con el recuento de conjuntos. Resulta que es un gran problema.
Según la axiomatización de la probabilidad de De Finetti, que garantiza que los creadores de mercado no pueden ser forzados a perder dinero, los conjuntos tienen que ser finitamente aditivos. Según la de Kolmogorov, los conjuntos deben ser contablemente aditivos.
Por ejemplo, uno de los supuestos ocultos en la matemática de fondo cuando se resuelven cosas como el estimador insesgado de varianza mínima para la media de la población es que la distribución de la variable aleatoria puede cortarse en tantos trozos como números enteros haya cuando se trata de una variable aleatoria continua.
Formalmente, una función de conjunto $\mu$ posee aditividad contable si, dadas cualesquiera colecciones contables disjuntas de conjuntos $\{E_k\}_{k=1}^n$ en el que $\mu$ se define $$\mu\left(\bigcup_{k=1}^\infty{E_k}\right)=\sum_{k=1}^\infty\mu(E_k).$$
Una forma informal de pensar en ello es imaginar que se corta la distribución normal en segmentos de una unidad de tamaño en ambas direcciones. Eso sería un número infinito de conjuntos disjuntos sobre una distribución continua.
Los métodos bayesianos no son contablemente aditivos. En cambio, sólo se puede cortar un conjunto de este tipo $n$ maneras. No puede tomar $n$ hasta el límite en el infinito.
Aunque pueda parecer contradictorio, cuando se pone en riesgo el dinero, la diferencia es gigantesca.
Creo que Leonard Jimmie Savage creó la siguiente analogía.
Imagina que tienes una urna con $n$ billetes de lotería en él. Como corredor de apuestas o creador de mercado, podría tomar decisiones racionales sobre cómo fijar el precio de cada billete de forma sensata.
Ahora imagina una urna con todos los enteros dentro. ¿Cómo se podría fijar un precio razonable para el riesgo de cualquier billete?
Los métodos frecuentistas producen soluciones que permiten a alguien inteligente encadenar una combinación convexa de contratos de manera que no pueda perder dinero. De hecho, estos contratos suelen autofinanciarse o pagar cantidades superiores al coste de los fondos.
Si su contraparte utiliza un método frecuentista para cosas como la asignación de activos, y usted sabe cómo hacerlo, puede construir una cartera de contratos sin riesgo. Es el equivalente matemático al daltonismo. El frecuencialista es efectivamente daltónico por la suposición de aditividad contable.
Para usar una analogía, imagina que hubiera un dispositivo que garantizara un pago cuando una luz fuera azul y nunca pagara cuando fuera verde. Usted es daltónico y cree que el azar está implicado. La otra parte no. Piensan que estás loco o, al menos, que eres individualmente irracional.
Sin embargo, la utilización de un método bayesiano no es condición suficiente para obtener un resultado coherente, es decir, un resultado que no pueda ser manipulado por una contraparte inteligente.
Algunas distribuciones previas y algunas funciones de utilidad pueden crear precios incoherentes.
Está a salvo si utiliza su reales subjetivos adecuados a partir de la información fuera del conjunto de datos y si utiliza su función de utilidad personal. Es cuando empiezas a construir funciones de utilidad artificiales o priors cuando la investigación muestra que puedes verte obligado a asumir pérdidas.
Mi preocupación es que esta es una solución minimax y las soluciones minimax no son coherentes, generalmente. Como mínimo, probablemente podría crear un caso de arbitraje estadístico en su contra. Por otro lado, es poco probable que te importe. El uso de esta función de utilidad implica que usted es muy conservador y temeroso. Usted estaría dispuesto a renunciar a la rentabilidad por la seguridad.
La pregunta abierta es si podría o no encontrar una manera de obligarte a perder dinero.