Considere el modelo de un solo factor en forma de serie temporal, por ejemplo
$$ r_t^i = \alpha_i + \beta^i f_t +\epsilon^i_t \quad (1) $$ Aquí $i$ no es un exponente sino un superíndice, por ejemplo, representa la rentabilidad del valor $i$ .
Asumiendo que tenemos un modelo de un solo factor, que entonces establece que: $$ \mathbb{E}[r^i] =\alpha_i + \lambda\beta_i \quad (2) $$ por ejemplo, el rendimiento medio de la seguridad $i$ viene dada por una constante multiplicada por su exposición al factor común $f$ (cualquiera que sea). Por lo tanto, parece que hay dos formas de estimar $\lambda$ . La primera es la forma más bien simple/posiblemente demasiado simple - tomar la ecuación $(1)$ y tomar los promedios de las series temporales empíricas para que: $$ \frac{1}{T}\sum_{t=1}^T r^i_t = \alpha_i + \beta_i \frac{1}{T}\sum_{t=1}^T f_t + \underbrace{\frac{1}{T}\sum_{t=1}^T \epsilon^i_{t}}_{\text{Assumed to be zero}} $$ para que la estimación de la prima de riesgo sea $$ \hat{\lambda} = \frac{1}{T}\sum_{t=1}^T f_t $$ Por ejemplo, en el caso del CAPM, sería simplemente la rentabilidad media del índice de referencia/índice/
El otro método es el de dos etapas, llamado Fama-Macbeth regresión, que estimaría la $\beta^i$ para cada acción a través de $N$ diferentes regresiones OLS de series temporales y, a continuación, para cada coeficiente estimado, ejecutar $T$ regresiones transversales para estimar $\lambda_t$ en cada momento $t$ . Lo consideraría: $$ \hat{\lambda} = \frac{1}{T} \sum_{t=1}^T\lambda_t $$
Mi pregunta : ¿Cuál es exactamente la diferencia entre los resultados obtenidos en cada uno de estos procedimientos? Entiendo que metodológicamente son bastante diferentes, pero me pregunto cómo diferirían en la práctica sus estimaciones de las primas de riesgo y por qué.