46 votos

¿Qué enfoque domina? ¿Modelación matemática o minería de datos?

Según mi entendimiento actual, hay una clara diferencia entre la minería de datos y modelado matemático .

La minería de datos Los métodos tratan los sistemas (por ejemplo, los mercados financieros) como una "caja negra". Se centran en las variables observadas (por ejemplo, los precios de las acciones). Los métodos no tratan de explicar los fenómenos observados proponiendo mecanismos subyacentes que los provocan (es decir, lo que ocurre en la caja negra). En su lugar, los métodos tratan de encontrar algunas características, patrones o regularidades en los datos para predecir el comportamiento futuro.

Modelado matemático en cambio, intenta proponer un modelo de lo que ocurre dentro de la caja negra.

¿Qué enfoque domina en la financiación cuantitativa? ¿Trata la gente de utilizar cada vez más técnicas extrañas de minería de datos o trata de construir cada vez mejores modelos matemáticos?

37voto

mendicant Puntos 489

Si, después de hablar con ellos largamente sobre sus requisitos y lo bien que sus requisitos encajan con mis capacidades, siguen eligiendo una plataforma que no es tan adecuada para su proyecto como otras, me aseguro de incluir en mi propuesta supuestos que cubran los problemas que preveo que pueda tener. Me habré asegurado de decirles que algunos requisitos, como la elección de la plataforma, pueden aumentar el tiempo de desarrollo necesario aunque todos los demás aspectos del proyecto sigan siendo los mismos.

Por ejemplo, un cliente puede elegir Ruby on Rails, y requerir que se utilice Heroku. Ahora un simple sitio PHP de tres archivos con una base de datos en un host barato podría satisfacer todas sus otras necesidades, pero si insisten, entonces me aseguro de citar mis estimaciones de tiempo en consecuencia, reforzar la sección sobre el mantenimiento del sitio web necesario después de que mi desarrollo está hecho, sugiriendo que el mantenimiento será necesario debido a varios problemas de Heroku que he tratado en el pasado, y añadir supuestos como, "Heroku soporta las bibliotecas necesarias de Rails y no tendré que depurar nada más que mi propio código" etc. Saben que si las suposiciones se rompen, entonces tendremos que hablar sobre los excesos de estimación de tiempo.

17voto

Vitalik Puntos 184

Creo que tienes la dicotomía correcta aquí.

Las cosas empezaron a finales de los 80 y durante los 90 con analítica se aproxima particularmente a la fijación de precios de los derivados (como en "oye, vamos a crear otra opción exótica que podemos vender al lado del comprador"). La "moda" de modelización de riesgos de los años noventa (cuando las entidades reguladas, como los bancos, necesitaban reforzar la presentación de informes) continuó con esto, al igual que la modelización de créditos, ya que ese mercado creció a pasos agigantados.

Al mismo tiempo, siempre ha habido empírico enfoques de arbitraje como, por ejemplo, con el grupo PDT de Morgan Stanley y otros pioneros. Y con el aumento de la potencia de computación, así como la mayor disponibilidad de datos y el acceso al intercambio electrónico, hay menos barreras de entrada en este frente y, por lo tanto, más actores que compiten por lo que puede ser un fondo común fijo de beneficios.

En cuanto a sus preguntas sobre qué enfoque domina: difícil de decir, supongo que es algo que fluye y refluye. La inversión cuántica "clásica" se desplomó en 2007 y 2008, lo que llevó a un mayor interés en los enfoques de mayor frecuencia. Que ahora pueden estar saturados el tiempo lo dirá. En cuanto a la parte analítica: parece que también se ha cosechado demasiado con pocos avances recientes.

7voto

Chris Bunch Puntos 639

¿Su pregunta es más sobre los enfoques adoptados en el lado de la compra vs. la venta? Si es así, puede que quieras leer El artículo de Attilio Meucci, P vs. Q. sobre este tema. Rompe la dicotomía como la fijación de precios de los derivados (el mundo "Q"), que utiliza mucha modelización muy sofisticada que implica el cálculo de Ito y PDEs, y la gestión de la cartera (el mundo "P"), que utiliza muchas estadísticas y estimaciones a gran escala. Ambas partes, sin embargo, pueden hacer algunos modelos matemáticos sofisticados, pero sólo la parte compradora "extrae" realmente los datos.

Si tu pregunta es más sobre lo que se hace en el lado de la compra, dependerá de lo que quieras decir con "domina". Los enfoques de minería de datos puros tienden a no funcionar bien en absoluto más allá de horizontes muy cortos. Como @Quant-Guy ya ha mencionado, estos enfoques se encuentran más a menudo en las empresas de creación de mercado y de comercio de alta frecuencia (HFT). Muchos estudios ya han encontrado que más de la mitad de las transacciones de acciones de EE.UU. (todas las transacciones, no sólo las cuánticas) son realizadas por estas empresas, por lo que no hay duda de que estas empresas dominan en términos de dólares negociados. En todo caso, la caída repentina reveló que estas empresas ya son demasiado grandes. Por otra parte, la mayoría de este tipo de estrategias están extremadamente limitadas en cuanto a capacidad, mientras que los enfoques de modelización tienden a funcionar bien también en horizontes más largos. En consecuencia, los modeladores tienden a dominar en términos de AUM. Al igual que la caída repentina de las empresas HFT, el terremoto de agosto de 2007 reveló que los tipos de modelación también eran demasiado grandes. Ahora que cada categoría de finanzas cuánticas ha tenido su propia mini-crisis, nadie sabe cuál dominará en el futuro (quizás ninguna/ambas).

Si estás seriamente interesado en una taxonomía de estrategias cuánticas, y particularmente en la equidad cuántica, deberías revisar La presentación de Morgan Stanley sobre este tema . Desglosan todos los fondos cuánticos de la siguiente manera (algunas empresas pueden hacer más de uno de estos):

  • Equidad
    • Mercado de valores Neutral
    • Técnico
    • Impulsado por eventos
    • Replicación del Fondo de Cobertura
  • Futuros y Forwards
    • CTAs
    • Comerciantes a corto plazo
    • Macro sistemático
    • Replicación de HF
  • Opciones
    • Arbitraje de volatilidad
  • Crédito
    • Correlación, comercio de base, largo/corto
  • Estrategias de activos híbridos
    • Replicación de HF

La presentación de la EM luego profundiza en las comparaciones de las estrategias de la REM y de las Acciones Técnicas.

3voto

luisfaceira Puntos 41

Creo que ambos enfoques no responden a la cuestión de la rentabilidad. Los sistemas más algo son más sofisticados que esto. Extendería su lista a algoritmos adaptativos, modelos estadísticos y a saber algo que otros pasan por alto.

3voto

bentsai Puntos 1886

No veo la diferencia entre los enfoques "estadístico" y "empírico".

Los enfoques estadísticos o de minería de datos o de aprendizaje automático, que en su mayoría están bajo el mismo paraguas, se basan en la inferencia inductiva. Por otra parte, el enfoque analítico, se basa en algunos axiomas previos que asumimos como verdaderos por definición, y más allá de este paso, la teoría se construye de manera deductiva - es decir, como las implicaciones del conjunto particular de axiomas sobre el comportamiento humano. Los enfoques de equilibrio se derivan de la teoría económica, o economía financiera. El CAPM está vinculado a supuestos sobre la utilidad, la hetero/homogeneidad de los agentes y sus expectativas. Hasta qué punto cualquiera de estas suposiciones es "verdadera" (o no), es algo que la prueba de las teorías tiene que responder (y hasta cierto punto qué sería "razonable" esperar del comportamiento humano).

La "ley de un precio" es algo que podemos suscribir más fácilmente que decir los alfas de una regresión CAPM de los rendimientos de las acciones sobre los rendimientos del mercado, siendo conjuntamente cero (en un sentido estadístico), siendo este último un caso particular de riesgo de covarianza del consumo, y todo el riesgo de consumo siendo sustituido por el mercado.

En este sentido, la aplicabilidad de los enfoques analíticos se limita a operar dentro de los límites de los axiomas que subyacen a la teoría - o a esperar violaciones de esos axiomas en casos particulares (que tal vez, con el tiempo, amplíen esa teoría a una más nueva).

Sin embargo, a medida que se elaboran teorías más complejas y realistas, también existe la preocupación de si la teoría misma se formó después de es decir, elaborando teorías para explicar patrones persistentes o anomalías que una teoría anterior no podía "explicar". En este contexto, el modelo de Fama-Francia no es una teoría, sino que detectó una regularidad empírica que no fue explicada por CAPM, pero no es una teoría en el sentido deductivo. Sin embargo, CAPM es una teoría - aunque una que no explica (y mucho menos predice) con precisión todos los aspectos de los mercados reales.

La aplicación de enfoques analíticos a la fijación de precios de los derivados se entiende fácilmente porque la ley de no arbitraje es más fácil de tragar como una "ley" que digamos los argumentos de equilibrio sobre el mercado. El enfoque analítico "más puro" es el que me dice que compre naranjas en el mercado A al precio "p1" y las venda en el mercado B al precio "p2", donde p2 > p1. A falta de esto, siempre estamos estimando algunos parámetros incluso para usar lo que de otra manera es una teoría deductiva.

Además, sospecho que los enfoques estadísticos y analíticos no siempre se excluyen mutuamente. Por ejemplo, si aceptamos el CAPM para sostener más o menos, la serie construida a partir de los residuos podría ser entonces sometida a tortura por los métodos de aprendizaje de la máquina para extraer una señal, si la hubiera. En este caso, las líneas son borrosas.

Si pensamos en esto como un Bayesiano, entonces los argumentos 'analíticos' o teóricos nos ayudan a formar nuestro anterior, y los datos que tenemos a mano se 'mezclan' con nuestro anterior para llegar al posterior.

En un extremo, los enfoques "puros" de estadística/minería de datos se dejan funcionar sin ninguna estructura previa que impongamos a la dinámica del mercado y únicamente a la detección de regularidades empíricas (aunque, incluso utilizar las aportaciones de un comerciante para un enfoque de minería de datos constituiría convertirse en algo "analítico", ya que esperamos que el comerciante tenga algún tipo de historia previa que justifique sus aportaciones). En el otro extremo, el ejemplo puramente analítico sería la explotación de la LOP como en el ejemplo de las naranjas - es decir, la inferencia se sostiene por la fuerza de la lógica.

Pero la cuestión de qué enfoque es el dominante - sospecho, como señaló Dirk, que estas cosas bajan y bajan, y además, las suposiciones "razonables" que dan cierta estructura "débil" a un "enfoque de minería de datos" es probablemente más rentable cuando podemos plantear alguna estructura, en lugar de ninguna estructura en absoluto.

P.D.: ¡Buenas respuestas de QuantGuy & Dirk! como era de esperar.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X