Probablemente se deba a los sólidos fundamentos estadísticos que existen desde hace tiempo en la economía y la econometría y, en general, en la predicción del riesgo. Por ejemplo, fíjese en las investigaciones actuales sobre las distribuciones de cola gorda y los cálculos de la pérdida esperada de cola (ETL), etc. Estos estudios ajustan las distribuciones de probabilidad t de Student, Normal, Estable y Pareto a los datos e informan de que, por ejemplo, la distancia de bondad de ajuste de Kolmogorov o Anderson-Darling es menor para la distribución normal, es decir, la distribución normal no recupera el área de las colas tan bien como la estable y la t de Student (para f.d. variables). A continuación, pasando a los análisis de series temporales, sigue teniendo mucho mérito el uso de ajustes de tipo ARIMA, ARMA, ARCH y GARCH para explicar las medias y varianzas condicionales y la autocorrelación. Se puede utilizar simplemente un puñado de los métodos mencionados anteriormente y realizar una cantidad increíble de predicciones de riesgo que tienen un mérito científico en la gestión del riesgo financiero.
A continuación, en lo que respecta al ML, cuanto más se profundiza en el aprendizaje no lineal de la matriz (ISOMAP, mapas propios laplacianos, etc.), la metaheurística (algoritmos evolutivos y estrategias evolutivas como los algoritmos genéticos, la autoadaptación de la matriz de covarianza, la optimización de colonias de hormigas, la optimización de enjambres de partículas), el aprendizaje neural adaptativo (RNA) y muchos otros métodos supervisados de ML e IA, se está alejando esencialmente del descenso de gradiente basado en la derivada determinista y estocástica y de los métodos de Newton-Raphson, que proporcionan incertidumbre en los parámetros.
Recientemente, he empezado a utilizar la optimización por enjambre de partículas para casi todo lo que optimizo. Claro, Newton-Raphson es más rápido, es más consistente, y puede proporcionar la incertidumbre de los parámetros, pero como yo lo veo, para modelar correctamente el riesgo uno necesita combinar realizaciones de muchas distribuciones diferentes para construir una distribución de incertidumbre final. Por esta razón, la mayoría de las veces, cuando no me interesan los errores de tipo I y II, la potencia, el AIC, etc., o los errores estándar de los coeficientes, suelo arrojar estimaciones puntuales y utilizarlas como entradas para el análisis de Monte Carlo.
En cuanto a los bosques aleatorios (RF), es uno de los mejores clasificadores no supervisados y supervisados que existen. El RF combina simultáneamente el bootstrapping de las muestras de entrenamiento y la selección aleatoria de características para entrenar cada árbol. Los objetos de prueba desconocidos que no se encuentran en la muestra de entrenamiento de bootstrap (denominados out-of-bag, OOB) se "descartan" en cada árbol entrenado. La importancia de las características se determina comparando la precisión de la clasificación entre los valores permutados y no permutados de las características $j$ para todos los objetos de la OOB a través de la caída en el mismo árbol entrenado. Breiman sugirió que se utilizaran al menos 5.000 árboles ("no seas tacaño") y, de hecho, en su principal artículo de ML sobre RF se utilizaron 50.000 árboles por ejecución.
Las redes neuronales artificiales (RNA) han demostrado ser un aproximador universal; sin embargo, resultan bastante caras en comparación con Newton-Raphson, siempre que se conozca la función objetivo que se está ajustando (optimizando). Si no se conoce la ecuación objetivo, entonces una RNA puede ser tremendamente beneficiosa. Como he dicho a otros colegas, en estos casos, "la RNA es la ecuación". Para este último marco, en el que la RNA es la ecuación, si se extraen cuantiles aleatorios de las distribuciones para varios factores de riesgo, y se sujeta cada conjunto de cuantiles a los nodos de entrada de la RNA, se entrena utilizando CV, la utilidad de una RNA combinada con Monte Carlo será inmensa.
Dado que se tarda una década o más en aprender ML e IA a un nivel en el que se pueda abordar la mayoría de los problemas, no cabría esperar que alguien con una amplia formación en QF fuera capaz de aprenderlo rápidamente, ni que los resultados fueran mejores. El ML y la IA se implementan mejor para problemas casi NP-difíciles, como la programación de horarios, turnos y aerolíneas, y la logística, donde no hay una solución analítica de forma cerrada (ecuación) que describa su modelo.
15 votos
Con el debido respeto, pero ¿por qué creer desde el principio que se tiene alguna información o puntos de datos a mano que ayuden a predecir qué sectores superan al mercado en general en 6 meses? Si tuviera que resumir mi opinión sobre los mercados financieros, diría que el éxito tiene todo que ver con la gestión del riesgo de forma inteligente, así como con el aprovechamiento de las oportunidades en tiempos de ineficiencia del mercado, y tiene muy poco o nada que ver con la previsión del futuro.
14 votos
Hice unas prácticas en una empresa de compra al principio de mi carrera y rechacé una oferta para unirme a ella porque consideré que su esfuerzo por rotar los fundamentos de las empresas millones de veces con la esperanza de descubrir un modelo predictivo de múltiples factores era infructuoso y ridículo. Era un fondo que gestionaba cerca de 100.000 millones de dólares y todos se iban a casa contentos cada día sabiendo que tenían su base garantizada y sus primas embolsadas y descuidando el hecho de que generaban rentabilidades muy similares a sus índices de referencia. Simplemente pregunto por qué crees que unas métricas que ya están tasadas en los activos deberían tener poder predictivo....
1 votos
Usted ganaría necesariamente a ValuLine porque se ajusta a los datos de la muestra... Si yo estuviera usando su enfoque de investigación podría construir un modelo que tiene un retorno en cualquier punto de $\mathbb{R}$ de mi elección.
6 votos
De alguna manera, nadie ha mencionado que, esencialmente, los métodos de regresión son un subconjunto de ML y pueden considerarse casos límite de varios algoritmos de ML. A primera vista, esto podría significar que los resultados que proporciona el ML deberían ser siempre mejores, pero no es así porque es muy fácil sobreajustar o sesgar o simplemente utilizar mal una técnica más compleja. Aunque la mayoría de los algoritmos de ML se consideran cajas negras, es muy fácil producir un mal modelo si no se sabe lo que se está haciendo. Pero si se sabe lo que se está haciendo, ciertamente deberían superar a la regresión.
2 votos
Según tengo entendido, no hay mucho ML, en primer lugar, porque un gran porcentaje de la gente no tiene una mentalidad muy cuántica y prefiere la experiencia (o, peor aún, la corazonada) y basa las predicciones en la investigación fundamental, o en general tiene miedo de las cosas nuevas que no están probadas a fondo (y/o no pueden entender). La falta de bibliografía en este ámbito está relacionada principalmente con el hecho de que se trata simplemente de un análisis (estadístico) de series temporales (que no difiere mucho del análisis de cualquier otro proceso de series temporales) y hay más que suficiente bibliografía académica de calidad al respecto.
0 votos
@sashkello "Debería superar a la regresión". Dos cosas; los algoritmos de aprendizaje supervisado de respuesta continua son de regresión, y en segundo lugar esta es una afirmación sin fundamento.
0 votos
@user2763361 No es una afirmación sin fundamento y lo he explicado en mi comentario. Si la regresión puede ser modelada por otro algoritmo ML, su resultado puede ser al menos igualado.
1 votos
@sashkello ¿En qué te basas para afirmar esto? Por favor, apóyala con alguna razón o prueba teórica. Ni siquiera tiene sentido decir "Si la regresión puede ser modelada por otro algoritmo ML", ya que la regresión es un tipo de un algoritmo de aprendizaje supervisado que tiene una respuesta continua.
0 votos
@user2763361 No veo qué hay de malo en mi afirmación. Si puedes crear una red neuronal que se comporte exactamente como una función lineal, ya tienes tu regresión lineal, por lo tanto, la NN no es peor que la regresión lineal. Lo mismo puede decirse de las SVM y muchos otros algoritmos de ML. Sin embargo, no se puede decir con seguridad sobre los bosques aleatorios.
0 votos
@sashkello Oh ok. No entendía lo que querías decir porque esos métodos son un tipo de regresión, pero ahora está claro. Sin embargo yo cambiaría "debería" por "puede en teoría".
0 votos
@user2763361 Sí, ciertamente quise decir "puede en teoría", buen punto.
0 votos
Los fondos quant de baja frecuencia que he visto utilizan principalmente métodos de identificación de señales que son pobres sin un buen procesamiento de la señal y el éxito de la denostación ML es propenso a un error significativo como 2763361 comenta los datos están perversamente incrustados en el ruido.
0 votos
@Barnaby ¿A qué te refieres con los métodos de idenfiticación de la señal? y ¿por qué son pobres sin un buen procesamiento de la señal? No está claro lo que quieres decir