18 votos

Estándar actual del sector para la optimización de carteras (activas/pasivas)

Leyendo múltiples trabajos de investigación en línea. Me di cuenta de que la optimización actual de la cartera (estándares de la industria) implica la construcción de modelos de factores, realizar optimizaciones de valor en riesgo (condicional), (contracción de la matriz de covarianza) e incluso la optimización robusta de la cartera y (aunque muy pocas personas citaron, el método para imputar historias de precios cuando diferentes instrumentos tienen diferentes fechas de inicio). Pero la información está realmente muy dispersa, me pregunto si alguien podría sugerir alguna lista de métodos actuales de gestión de carteras/ gestión activa de carteras (señales de trading) que pueda leer para entender más con el objetivo de poder implementar métodos de vanguardia por mí mismo.

17voto

akalenuk Puntos 1738

Soy un profesor de finanzas que ha pasado su vida trabajando en los mercados de capitales en operaciones, ventas, cumplimiento e investigación. Me encantaría hablarles de la existencia de normas industriales, pero no existen. Hay pocas mejoras en el estado del arte desde los años 70.

Como nota de divulgación, soy un fuerte crítico de las finanzas de varianza media argumentando que existe una prueba de inexistencia en la estadística que excluye los modelos CAPM, Black-Scholes y Fama-French. Puedo encontrarte 4.000 artículos sobre una sola anomalía en los métodos basados en el cálculo de Ito. De hecho, casi todas las conferencias de finanzas son presentaciones sobre anomalías.

Permítanme exponer las líneas de pensamiento, sus ventajas y sus desventajas.

El primero es el abuelo de todos los métodos financieros, el análisis fundamental de Graham y Dodd y la inversión con margen de seguridad. También se suele llamar inversión de valor. Enseño una clase sobre esto y estoy trabajando en un artículo de economía que argumenta que los métodos de Graham y Dodd dominan estocásticamente más otros métodos. Digo la mayoría porque no se ocupan de la liquidez ni de los costes de liquidez y suponen un horizonte muy largo.

La ventaja es que, con la modificación, debería ser capaz de construir apuestas con el criterio de Kelly. Como los Criterios de Kelly son óptimos en ausencia de restricciones y pueden modificarse fácilmente para incluirlas, deberían utilizarse generalmente en ausencia de una función de coste o utilidad específica.

Los métodos de Graham y Dodd tienen algunas desventajas materiales. La primera es que dependen de los datos. No son útiles, en sí mismos, sin mucha información sobre una empresa. Podrían complementarse con un análisis bayesiano mediante la formación de una prioridad basada en otras empresas, pero eso es poco seguro. También ignoran la toma de decisiones a corto plazo y los juicios basados en la liquidez y los costes de liquidez. Tampoco son inmunes a los falsos positivos o a los falsos negativos, pero sin apoyo adicional tampoco proporcionan ningún diagnóstico sobre la tasa de falsos descubrimientos.

La siguiente en aparecer en el tiempo es la financiación de la varianza media. El elemento clave de las finanzas de varianza media es la existencia de la varianza y la existencia de una matriz de covarianza. De nuevo, como nota de divulgación, he argumentado que no existe una varianza en las distribuciones implicadas, por lo que pueden considerarme parcial en este punto.

Estos métodos son muy utilizados con una gran variedad de métodos para tratar de apuntalarlos. En particular, has mencionado los métodos de contracción, los modelos de factores y el VaR, así como los métodos robustos. Has omitido cosas como la estimación y las pruebas basadas en la heterocedasticidad, a menos que eso sea lo que quieres decir con métodos robustos. También has excluido cosas como la RNA para volver a las finanzas de la varianza media.

La ventaja es que las herramientas proporcionan asignaciones precisas. También permiten la aceptación social gracias a los dos premios Nobel. La lista de desventajas es bastante larga.

En primer lugar, aunque los modelos fueran ciertos, se ha demostrado que estos modelos siempre pueden ser dominados estocásticamente. De hecho, carecen de la propiedad estadística conocida como coherencia, lo que implica que nunca se debe apostar por ellos. Los modelos se construyen bajo el supuesto de que los parámetros son perfectamente conocidos. Lo que falta es que si no lo son, entonces, por teorema, no existen estimadores para los modelos. Por último, han generado una enorme literatura de sus fallos. De hecho, para un profesor que se ve obligado a publicar o morir, proporcionan un terreno fértil para hablar de algo que no funciona. Son una presa fácil. Es la fruta que pende de un hilo.

Tenga en cuenta que estoy incluyendo, probablemente de forma inadecuada, modelos de factores y PCA como el APT y Fama-French. Ninguno de estos modelos se puede apoyar en el sentido de que tienen un estudio de validación que muestra que funcionan fuera de la muestra, todos son modelos dominados y carecen de coherencia. Lo inadecuado es que se ven a sí mismos como algo más, pero comparten todos los problemas matemáticos con las finanzas tradicionales de media-varianza.

La siguiente clase de modelos, que comenzó con Mandelbrot en 1963 y se extendió con Eugene Fama hasta los años 70, son los modelos de distribución de cola pesada. Estos modelos carecen de un primer momento, por lo que no pueden existir expectativas ni una matriz de covarianza.

De nuevo, como nota de divulgación, yo encajo dentro de este grupo. No puede existir un estimador admisible, computable e insesgado no bayesiano para esta clase de distribuciones. Las distribuciones carecen de un estadístico suficiente que obliga a todos los estimadores no bayesianos a perder información y se truncan en el -100%, lo que sesga fuertemente los estimadores no bayesianos.

La ventaja de estos métodos, cuando se hacen con cuidado, es que funcionan y generan estimaciones de intervalos muy estrechos. Permiten rendimientos del 98.000% como parte de la naturaleza, lo que es una suerte, ya que esto ha ocurrido, pero hay una pequeña montaña que escalar en la teoría bayesiana de la decisión sobre cómo utilizarlos. Tienes asegurado un estimador admisible y coherente si eres muy cuidadoso. De hecho, tienes asegurado el uso de toda la información disponible si utilizas la distribución predictiva. También existe una metodología clara para puntuar las predicciones. Como son admisibles, dominan todos los demás estimadores, incluidos los de contracción.

Las desventajas son muchas. Los métodos bayesianos son computacionalmente intensos. Requieren realizar una integración numérica, posiblemente en altas dimensiones, sin que existan soluciones analíticas. Además, las hipótesis bayesianas son combinatorias. Mientras que $y=\beta_1x_1+\beta_2x_2+\beta_3x_3+\beta_0$ requiere una prueba F en la estadística frecuentista, requiere ocho conjuntos de pruebas de hipótesis para todas las combinaciones posibles de variables, a menos que pueda excluir lógicamente algunas. Esto requiere ocho conjuntos de integraciones. Una solución bayesiana no tarda en volverse computacionalmente prohibitiva.

También son difíciles de publicar. No hay valores p. No hay hipótesis nula. Además, pueden ser difíciles de vender, ya que son modelos subjetivos. Dos investigadores con información diferente obtendrán resultados distintos.

Los siguientes en el tiempo son los métodos conductuales. Los métodos conductuales tienen dos problemas que también son su ventaja. Son descriptivos y no prescriptivos. Describen bien el comportamiento, pero pueden no describir el comportamiento de equilibrio.

Probablemente debería investigar y utilizar métodos conductuales, a menos que crea que no es humano y que, por tanto, carece de los problemas que tienen los inversores humanos. Dicho esto, puede que no importen en el equilibrio. La cuestión es que muchos comportamientos observados son contrarios a los datos sistémicos.

Permítanme dar un ejemplo. Se ha argumentado, y creo que es cierto, que los seres humanos realizan un descuento hiperbólico en lugar de un descuento exponencial. Eso puede ser cierto, sin embargo, como el valor futuro es el valor presente multiplicado por uno más la tasa, eso asegura que la gran economía crecerá a un ritmo exponencial. Esto significa que cualquier otro descuento no es realmente posible, al margen, aunque puede ser causado por muchos individuos que descuentan hiperbólicamente de manera muy heterogénea.

Lo mismo ocurre con la parcialidad. El teorema de Bayes dice que todos los actores deberían ser estimadores sesgados si su toma de decisiones es coherente en el sentido estadístico, excepto bajo reglas de Bayes generalizadas. Sin embargo, si la gente real utilizara reglas de Bayes generalizadas que además no fueran niños pequeños o académicos, entonces probablemente habría que preocuparse por ellas. Utilizarías una regla generalizada cuando pudieras decir honestamente "no sé nada de lo que estoy haciendo".

Como ejemplo, si se utilizara una regla de Bayes generalizada al caminar por el borde de un rascacielos, se consideraría que caminar hacia el aire equivale a caminar hacia el centro del edificio hacia la seguridad.

Si utilizas un estimador ordinario que sea de Bayes, entonces tienes asegurado el sesgo con una probabilidad del cien por cien, por teorema. Dicho esto, esto es un conocimiento inútil. Imagina que la economía tomara medidas $X$ que es $Y$ en magnitud. Además, imaginemos que todos los actores estuvieran ligeramente sesgados por arriba y por abajo en ambas medidas. Las curvas de la oferta y la demanda seguirían intersectándose en $(X,Y)$ y cualquier predicción imparcial seguiría funcionando. Que los actores individuales estén sesgados no implica nada sobre un equilibrio, salvo que algunos pueden estar más sorprendidos que otros.

Deberías leer mucho sobre los métodos de comportamiento, pero como una descripción de los bloqueos, que crearás para ti mismo y no como una prescripción para tu comportamiento.

Voy a obviar la econofísica porque entra en la categoría de cola pesada.

Si fueras mi alumno y tuvieras acceso a conjuntos de datos serios, te regalaría el libro de 1943 Análisis de seguridad de Graham y Dodd, yo le conseguiría una copia de Teoría de la decisión de Parmigiani, le asignaría la literatura sobre quiebras y fusiones, y le exigiría una amplia formación en métodos numéricos para apoyar todas las terribles integraciones que haría. Por último, te haría leer el artículo original sobre el Criterio de Kelly y te asignaría lecturas sobre optimización, incluida la optimización que no cumpliría el Criterio de Kelly, como cuando alguien tiene una función de utilidad en la que se necesita una cantidad suficiente de fondos, pero en la que encuentra rendimientos más altos sin valor. Hay personas para las que lo suficiente es suficiente y eso es una clase diferente de problema. Se puede pensar en ellos como cóncavos hasta un punto y luego planos.

EDITAR

Volví a revisar mi respuesta y me di cuenta de que dejé fuera de la discusión dos vertientes de pensamiento que deben ser abordadas y estudiadas por usted, pero que quedan fuera de las categorías anteriores.

El primero es la intermediación financiera y esto incluye modelos como el de Diamond y Dybvig para la banca y los modelos de los corredores de bolsa y me remontaría al menos al modelo de Treynor aunque obviamente hay modelos más nuevos y mejores de microestructura e instituciones.

La segunda es la modelización de la liquidez, que es una cuestión algo distinta de los modelos de intermediación, aunque no se pueden separar. Yo miraría el capítulo de Abbott en Manual de valoración sobre los factores de descuento por comerciabilidad y liquidez.

4voto

GuySoft Puntos 299

Este es un capítulo importante en cualquier libro de texto sobre gestión de inversiones. También es mal ejecutado por la mayoría de los gestores de dinero.

  • Factor de riesgo de la inversión:
    • factores micro en la empresa
    • factores macroeconómicos sobre el sector, la industria o el índice
    • factores de precio como el impulso, las ponderaciones, la capitalización del mercado y otras señales de precio
  • Decisión de inversión sobre el riesgo/rendimiento de la asignación de activos:
    • var-covar
    • déficit previsto
    • VaR
    • etc.
  • Construcción de la cartera:
    • opciones de rentabilidad: por ejemplo, bono flotante o de tipo fijo + swap de activos
    • decisiones de activo y pasivo: e.g2. AAA 4% julio 2067 o AAA 4,25% agosto 2067
    • otras idiosincrasias
  • Temas de inversión macroeconómicos (alfa sobre la inversión variable en el tiempo), esencialmente fondos de cobertura:
    • multiactivo (S.L. GARS, A.I. AIMS)
    • fondo macro global
    • fondo monetario
    • arb estadística

Muy a menudo, se invertirá en fondos especializados con experiencia en cada una de estas subespecializaciones. Por lo general, no se espera que un fondo negocie conjuntamente estrategias de impulso y crédito sectorial.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X