Para muchas preguntas estadísticas se pueden obtener respuestas frecuentistas y bayesianas que en realidad coinciden. Uno de estos temas es la contracción de la matriz de covarianza y la regresión bayesiana.
Echa un vistazo al artículo "Honey, I Shrunk the Sample Covariance Matrix" de Lediot y Wolf. Introducen una transformación de la matriz de covarianza para que las diagonales sean más pronunciadas y, por tanto, se produzca un menor ajuste (excesivo) de la matriz de correlación al realizar la regresión.
Una matriz de covarianza similar -- encogida -- puede utilizarse en la regresión y se llegará a la regresión ridge (regularización L2) o Lasso, LARS (regularización L1). Estos métodos de regresión se expresan como la minimización del término de error cuadrático más un término de penalización L1 o L2 sobre los pesos de la regresión. Consideremos, por ejemplo, la regularización L2, que minimiza
$$\|A\mathbf{x}-\mathbf{b}\|^2+ \lambda\| \mathbf{x}\|^2$$
Aunque a primera vista parece una fórmula frecuentista destinada a reducir el sobreajuste, es equivalente a las soluciones bayesianas de regresión con priorización normal sobre los pesos de regresión (el coeficiente de penalización $\lambda$ es una función de la varianza de la Normal a priori).
Muchos paquetes estadísticos están equipados con regresiones L1 y L2 y contracción de covarianza (por ejemplo, scikit-learn en Python), por lo que no tendrá que ensuciarse mucho las manos.
Otro modelo bayesiano interesante en la optimización de carteras es el modelo Black-Litterman, en el que se utiliza una prioridad razonable sobre los rendimientos esperados de los activos (derivada de la optimización inversa en la teoría de carteras), y la teoría bayesiana para llegar a una estimación mixta de los rendimientos futuros de los activos.