1 votos

Monte Carlo vs. Block Bootstrapping vs. Bootstrapping

Dado que puedo ajustar, por ejemplo, ~25 distribuciones a través del ajuste de la distribución acumulativa empírica a los datos correlacionados (incluida la dist. estable) y, a continuación, simular los datos originales en función de la correlación (covarianza) utilizando la distribución que mejor se ajuste a cada característica, estoy planeando los tres enfoques siguientes en relación con la MC y el bootstrapping para estimar las ponderaciones óptimas para el reequilibrio mensual (20 días de negociación).

PROPUESTA DE ENFOQUE MONTE CARLO

Obtenga entre 2 y 4 años de datos de precios diarios de los valores de interés, estime los rendimientos logarítmicos y ajuste varias distribuciones a los rendimientos logarítmicos de cada activo. A continuación, utilizando la correlación entre los activos, simule pequeños bloques de, por ejemplo, 20 días (1 mes) de rendimientos logarítmicos.

A continuación, utilice la minimización de MV (cartera de tangencia) con los rendimientos medios y la matriz de covarianza para la secuencia de 20 días de rendimientos logarítmicos simulados, repita $B=500$ veces, y promediar los vectores de peso $\mathbf{w}^{(b)}$ , los rendimientos de la cartera $r_P^{(b)}$ y la varianza de la cartera $\sigma^{2 (b)}_P$ para todos los $B$ iteraciones. Determine la mediana y los percentiles 10 y 90 de cada ( $\mathbf{w}$ , $r_P$ , $\sigma^2_P)$ .

PASEO ALEATORIO (MUESTREO EN BLOQUE)

En el bonito artículo de Daly y otros sobre el filtrado del ruido de covarianza mediante Marcenko-Pastur y los datos diarios, seleccionaron aleatoriamente las fechas de prueba y utilizaron los datos de los 20 días siguientes como datos de cada bloque. Durante cada iteración, todos los datos anteriores a la fecha de prueba seleccionada aleatoriamente se utilizaron para los datos de entrenamiento dentro de la muestra, y se hicieron análisis separados de los datos fuera de la muestra. Básicamente, se filtraron las matrices de covarianza y correlación para los datos de entrenamiento y de prueba (bloque de 20 días) y se informó del número de valores propios de la señal superiores a $\lambda_+$ .

Mi idea sería simplemente generar el vector de retorno y la matriz de covarianza para cada bloque de 20 días (de retornos logarítmicos), y luego utilizar la minimización de MV a través de una cartera de tangencia para el bloque. Repita $B=500$ tiempos. Este enfoque conservaría la correlación entre los activos, al tiempo que utilizaría los rendimientos medios observados, que son realizaciones alternativas.

ENFOQUE DE BOOTSTRAPPING PURO

Este enfoque implicaría simplemente la obtención de datos diarios aleatorios (seleccionando un día a la vez) para construir secuencias de, por ejemplo, 20 días, que luego serían minimizados por MV para una minivarianza (no tangencia) $GMV$ suponiendo una rentabilidad media nula, ya que cualquier información relacionada con la rentabilidad media aquí sería sesgada y falsa, ya que los días individuales fueron muestreados aleatoriamente. Repita $B=500$ tiempos.

Creo que los tres métodos anteriores tienen mérito, ya que el primero simula rendimientos correlacionados para pequeñas secuencias de datos y aplica una cartera de tangencia. El segundo método obtiene aleatoriamente bloques de datos y genera carteras de tangencia para cada uno de ellos. El último método simplemente obtiene días al azar para construir secuencias de 20 días, y asume que los rendimientos son nulos para el $GMV$ cartera.

Teniendo en cuenta lo anterior y las numerosas formas en que el MC puede aplicarse a la optimización de la cartera, ¿qué enfoque es más habitual para determinar las ponderaciones que deben aplicarse durante un reequilibrio mensual (de 20 días)?

1voto

John Rennie Puntos 6821

En primer lugar, yo reordenaría sus planteamientos de esta manera

  1. Monte-Carlo de rendimientos diarios
  2. Bootstrap de los rendimientos diarios
  3. Bloque Bootstrap de 20 días

En segundo lugar me gustaría comentar ¿qué quiere hacer con los datos?

Me parece que su objetivo es implementar un " deslizamiento (20 días) cartera robusta de Markowitz ". Esto lleva a la pregunta ¿qué tipo de robustez pretende?

si se trata de una robustez con respecto a

  • la matriz de covarianza, esta es probablemente la matriz de covarianza que le gustaría hacer bootstrap, o limpiar.
    • Hay muchas formas documentadas de hacerlo; eche un vistazo, por ejemplo, a Correlación, jerarquías y redes en los mercados financieros (por M. Tumminello, F. Lillo, R.N. Mantegna, 2008)
    • pero si quieres hacerlo por ti mismo utilizando datos remuestreados, puedes trabajar sobre una distribución de la propia covarianza y no sobre la cartera
    • también podría utilizar sus datos sintéticos para construir una matriz de covarianza que explicar el riesgo previsto fuera de la muestra
    • en cualquier caso, observe que su enfoque MS simplemente destruirá la estructura de correlación de sus activos
  • si temes no tener una buena estimación de los rendimientos esperados, no estoy seguro de que ninguno de tus métodos te sirva, te será fácil comprobarlo: ¿están correlacionados algunos días de rendimientos pasados con los rendimientos futuros? (basta con dibujar un gráfico de dispersión para comprobarlo)

Verás que no hablo de la "robustez de las carteras" en sí, porque dado que piensas utilizar una construcción de Markowitz para obtenerlas, significa que tendrás dos inputs: los rendimientos esperados y la matriz de covarianza. De alguna manera, si éstas están limpias, su cartera estará limpia.

Sin embargo, me gustaría compartir una observación genérica sobre esto: digamos que tienes un método $F()$ tomar parámetros $\Theta$ para producir una cantidad de interés. En su caso, parece que considera que

  • $F$ es la construcción de la cartera de Markowitz
  • $\Theta=\{C,\mu\}$ donde $C$ es la matriz de covarianza y $\mu$ son los rendimientos esperados.
  • su cartera es

$$w=F(\Theta).$$

Por algunas razones $\Theta$ tiene que ser estimado en una base de datos $D$ , tau que su mejor estimador es $\mathbb{E}_D(\Theta)$ . Los estadísticos llaman al método plug-in la idea de que su "mejor estimación" del resultado (la cartera) es $$\hat w=F(\mathbb{E}_D(\Theta)).$$

Pero podrías considerar que lo que quieres es $$\tilde w=\mathbb{E}_D(F(\Theta)).$$ Este es el enfoque que tienes en mente, ya que quieres producir varias carteras y aplicar un filtro sobre ellas (en tu caso piensas promediarlas) para obtener "algo mejor".

¿Cuál es la diferencia?

  • cuando $F$ es lineal: no hay diferencia (excepto si su procedimiento $\mathbb{E}_D$ para obtener una estimación limpia es muy extraño y complicado).
  • si suponemos que el mejor estimador de $\Theta$ es $$\Theta^* = \Theta-\epsilon,$$ donde $\epsilon$ es pequeño, la aproximación del complemento puede reescribirse (gracias a la expansión q Taylor) $$\hat w=F(\mathbb{E}_D(\Theta))=F(\Theta^*) + \partial F(\Theta^*)\cdot\epsilon+o(\epsilon).$$

Por lo tanto, la pregunta que hay que hacerse es: cuál es la sensibilidad de mi fórmula $F$ (es decir, la construcción de la cartera de Markowitz) a los parámetros que voy a estimar (es decir, los rendimientos esperados y la matriz de covarianza)?

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X