Hay un par de cuestiones aquí, ninguna de las cuales es trivial.
En primer lugar, los valores p no son transitivos. Consideremos el conjunto de datos: $A=\{1,2,3\}$ , $B=\{3,4,5\}$ y $\{5,6,7\}.$ Por parejas, las diferencias entre A y B, y B y C no son estadísticamente significativas, pero C-A sí. No hay razón para que la media general sea significativa, aunque las diferencias extremas sean significativas.
En segundo lugar, la hipótesis nula es altamente informativa. La afirmación de la nula es que hay un cien por cien de posibilidades de que la nula sea cierta. Es una afirmación muy fuerte. Un valor p es la probabilidad de ver un resultado tan extremo o más extremo condicionado a la veracidad de la hipótesis nula. Es $\Pr(X|\theta=k)$ , donde $X$ son los datos y $\theta$ es algún parámetro.
Considera los resultados en:
Wetzels, R., Matzke, D., Lee, M. D., Rouder, J. N., Iverson, G. J., & Wagenmakers, E.-J. (2011). Evidencia estadística en psicología experimental: Una comparación empírica utilizando 855 pruebas t. Perspectives on Psychological Science, 6(3), 291-298. https://doi.org/10.1177/1745691611406923
Volvieron a comprobar 855 pruebas t que aparecían en la literatura convirtiéndolas en declaraciones de probabilidad bayesianas. Muchos resultados estadísticamente significativos bajo el régimen de pruebas de hipótesis frecuentista resultaron no significativos. Algunos resultaron apoyar la nulidad. Los métodos bayesianos no prueban si una hipótesis es falsa, sino que prueban si es verdadera. En muchos casos, la nula era más probablemente cierta que la alternativa, pero el resultado frecuentista decía lo contrario.
Aunque los resultados de los dos métodos mostraron un alto grado de concordancia, como era de esperar, la fuerte afirmación de que la nula es verdadera es información y parece ser la fuente de las diferencias cuando se producen.
Por último, si ha utilizado datos brutos en lugar de datos de registro, sus datos no tienen un primer o segundo momento. Mira tu media y tu rango. Probablemente no sea un valor atípico. Vea la prueba en https://economics.stackexchange.com/questions/26033/log-returns-in-fianance .
Si los datos son aproximadamente una distribución de Cauchy truncada, entonces $\beta$ como se entiende en Fama-MacBeth no existe. Sin embargo, no está claro qué significa en forma logarítmica. En forma logarítmica, la función de verosimilitud es la distribución secante hiperbólica, pero esa distribución no tiene matriz de covarianza. El teorema del límite central se mantiene, por lo que la regresión por mínimos cuadrados es utilizable, pero no está claro lo que significa. En la forma bruta de los datos, existe un parámetro de coescala, pero se colapsa en la relación conjunta como determinante. El resultado es que ninguna variable puede covariar, pero ninguna es independiente tampoco. Más bien, se mantiene una relación de cópula.
No se ha construido un paquete normalizado para resolver este problema porque ninguna de las dos probabilidades, la secante hiperbólica o la de Cauchy, tiene un estadístico suficiente. Las inferencias en el caso del logaritmo deberían ser válidas porque la cantidad pivotante se distribuye normalmente, por lo que las distorsiones en $\hat{\beta}$ se corresponden con las distorsiones del error estándar. Aun así, no se querría construir una cartera real sobre ella. La transformación logarítmica sobreestima la rentabilidad en un dos por ciento sobre el valor bruto y subestima el riesgo en un cuatro por ciento. Hice un estudio de población de los rendimientos anuales en el universo CRSP. Este fue el resultado.
Su rango es amplio porque el intervalo del cincuenta por ciento para la distribución de Cauchy es $\pm{1}\sigma$ pero el intervalo del 99,95% es $\pm{636}\sigma$ de ahí su amplia gama.
En primer lugar, recuerde que el único objetivo de Fama-MacBeth era falsificar la validez del CAPM, no crear un nuevo modelo. Consiguieron falsificarlo, pero eso no implica que su modelo sea válido. Todo el mundo lo utiliza como si fuera válido debido a la teoría de la decisión frecuentista.
Si su modelo ha sido un modelo de Fisher utilizando el método de máxima verosimilitud, entonces su modelo sería sólo han falsificado el nulo. Una vez que la nula es falsa, se sabe que no es verdadera y se pasa a otras cosas. Sin embargo, según la teoría de la decisión frecuencial de Pearson y Neyman, hay que comportarse como si la alternativa fuera verdadera. Esto se debe a que se crea una opción binaria, ya sea el CAPM o Fama-MacBeth. Dado que se encuentra en la zona de rechazo del CAPM, entonces acepta Fama-MacBeth como si Es cierto.
Una nota, para utilizar correctamente Fama-MacBeth, primero hay que falsificar el CAPM. Fama-MacBeth no es el modelo por defecto en esa construcción teórica de la decisión, ¡es el CAPM!