Ignoremos modelos particulares como el CAPM y centrémonos únicamente en las propiedades de esas interpretaciones de la probabilidad en la medida en que afectan a la toma de decisiones financieras o a la estimación.
Todos los modelos clásicos son modelos frecuentistas. Dependen estrictamente de que dos cosas sean ciertas. En primer lugar, los parámetros son fijos y conocidos por todos. En segundo lugar, los datos incluyen un choque aleatorio. Si se relaja el primer supuesto, se encuentra el problema de que $E(x_{t+1})$ no existe en el caso de $x_{t+1}=\beta{x}_t+\varepsilon_{t+1}$ donde el choque se extrae de cualquier distribución centrada en cero con una varianza finita y $\beta>1.$ Si $\beta\le{1}$ entonces nadie invertiría dinero.
Sin embargo, si nos alejamos de los modelos y nos adentramos en la estimación, lo que tenemos que hacer es preguntarnos ¿qué optimizan los estimadores frecuentistas?
Por desgracia, no hay una respuesta única a esta pregunta, pero, en general, son los estimadores insesgados que minimizan el riesgo máximo. Si se piensa en ello, es un rasgo maravilloso.
Imagina el caso en el que no tienes información previa. Una forma de pensar en la información previa es como un contexto. Te enfrentas a una pérdida por utilizar varios estimadores posibles en lugar de un parámetro, ya que es inobservable. No puedes obtener ningún contexto para protegerte. Así que lo que preferirías es que las matemáticas te garantizaran un nivel de protección, al menos en caso de uso repetido.
También le asegura una precisión perfecta, aunque no para una sola muestra.
Por último, si es necesario utilizarlas para tomar una decisión, vinculan perfectamente la inferencia con las decisiones y el comportamiento. No pueden decirle lo que es verdadero o falso, pero sí pueden indicarle cómo comportarse de tal manera que sólo quede en ridículo como máximo $\alpha$ por ciento del tiempo.
Tienen algunas desventajas. En primer lugar, nunca pueden utilizar más, pero sí menos información que el estimador de máxima probabilidad. También generan probabilidades incoherentes, de modo que si un corredor de apuestas utiliza un método frecuentista, entonces, de vez en cuando o posiblemente siempre, un jugador o conjunto de jugadores puede crear una circunstancia en la que el corredor debe perder en todos los estados de la naturaleza. Esto es sin ninguna forma de manipulación. También pueden generar un nivel significativo de arbitraje estadístico contra el corredor de apuestas. El arbitraje será invisible para el corredor de apuestas, una forma matemática de daltonismo.
El método de máxima verosimilitud, tal y como lo diseñó Fisher, se creó únicamente para la inferencia. No da lugar al tipo de matemáticas que se prestan a la toma de decisiones. No se ven modelos construidos con él porque los valores p sólo dan la fuerza de la evidencia contra algo. No pretende que haya una hipótesis alternativa. Si su nula es $\mu=0$ entonces la única opción es $\mu\ne{0}$ que es la línea numérica completa y poco informativa.
Sí se ve la estimación creada en él. El método de máxima verosimilitud nunca utiliza más información que el estimador bayesiano y puede utilizar menos porque no puede crear una prioridad y porque sólo puede considerar una función de pérdida. Sin embargo, es la solución del mejor caso para los datos observados. ¿Por qué querría utilizar una función de verosimilitud mediocre, como estaría implícito en el uso de un método frecuentista? Por supuesto, los métodos Frequentist no utilizan la función de verosimilitud, pero, implícitamente, mapearían algún punto de la verosimilitud.
La desventaja se presenta en dos casos. En primer lugar, si hay información previa real, el estimador bayesiano dominará al MLE dada la misma función de pérdida. En segundo lugar, no da lugar a probabilidades coherentes y, como en el caso anterior, se puede amañar el mercado en contra del corredor de apuestas o del creador de mercado.
Por último, los métodos bayesianos pueden construirse a partir de los axiomas de De Finetti. La consecuencia de esto es que están optimizados para el juego. Siempre que utilicen su previa real y no una conveniente, tienen la seguridad de que sus apuestas serán coherentes y no pueden amañar el mercado contra un corredor de apuestas o un creador de mercado. Las soluciones puntuales que proporcionan no pueden ser dominadas por otro tipo de estimador, por lo que nunca son más arriesgadas que cualquier otro estimador.
El inconveniente está en la investigación académica. No son simplemente estimadores sesgados como el MLE, sino estimadores subjetivos. Al menos, en teoría, cada ser humano debería tener su propia estimación para cualquier fenómeno dado habiendo visto los mismos datos. Eso es una pesadilla para los editores.
¿Cuál es su estimación de la media? La mía es 3, pero la de Joe es 4, y Millicent cree que es 3.000.000.
¿Cómo debemos decidir? Bueno, la axiomatización de Savage de la probabilidad comienza con $x\succeq{y}$ Y tengo fuertes sentimientos al respecto, además mi almuerzo me ha puesto en un estado de desequilibrio, así que la respuesta es 3.