36 votos

¿Cuáles son los populares metodologías para minimizar el espionaje de datos?

Existen procedimientos comunes previa o posterior de backtesting para asegurarse de que una estrategia de negociación cuantitativa tiene real poder predictivo y no es sólo una de las cosa que ha funcionado en el pasado por pura suerte? Seguro que si buscamos el tiempo suficiente para que las estrategias de trabajo vamos a encontrar uno. Incluso en un pie adelante enfoque que no nos dicen nada acerca de la estrategia en sí misma.

Algunas personas hablan de blanco de la verificación de la realidad, pero no hay consenso en la materia.

22voto

Adam Haile Puntos 12576

Estrictamente hablando, el espionaje de datos es no es el mismo que en la muestra vs fuera de la muestra selección del modelo y pruebas, pero tiene que lidiar con secuenciales o varias pruebas de hipótesis basados en el mismo conjunto de datos. Para citar Halbert Blanco:

El espionaje de datos se produce cuando un conjunto dado de datos se utiliza más de una vez para a los efectos de la inferencia o modelo selección. Cuando tales reutilización de datos se produce, no es siempre el posibilidad de que cualquier satisfactoria los resultados obtenidos pueden deberse simplemente a oportunidad en lugar de a cualquier mérito inherente en la methody ceder el resultados.

Permítanme dar un ejemplo. Supongamos que usted tiene una serie de tiempo de los retornos de un activo individual, y que tiene un gran número de candidatos modelo de las familias. Ajuste de cada uno de estos modelos, en un conjunto de datos de prueba y, a continuación, comprobar el rendimiento de la predicción del modelo en un ejemplo. Si el número de modelos es lo suficientemente alta, no hay un no despreciable probabilidad de que las predicciones proporcionadas por un modelo se considera bueno. Esto no tiene nada que ver con el sesgo y la varianza de los trade-offs. De hecho, cada modelo puede haber sido instalados usando validación cruzada en el conjunto de entrenamiento, o de otros en la muestra de criterios como la AIC, BIC, Mallows etc. Para ejemplos de un protocolo típico y criterios de verificación Ch.7 de Hastie-Friedman-Tibshirani "delos Elementos de La Estadística de Aprendizaje". Más bien, el problema es que, implícitamente, múltiples pruebas de hipótesis se ejecutan al mismo tiempo. Intuitivamente, el criterio para evaluar los múltiples modelos deben ser más exigentes, y un enfoque ingenuo sería aplicar una corrección de Bonferroni. Resulta que este criterio es demasiado estricta. Que es donde Benjamini-Hochberg, Blanco, y Romano-Lobo patada en. Ellos proporcionan eficiente de los criterios para la selección de modelo. Los papeles son demasiado complicadas para describir aquí, pero para tener una idea del problema, recomiendo Benjamini-Hochberg primera, que es tanto más fácil de leer y verdaderamente seminal.

17voto

Nick Berardi Puntos 31361

Construir un backtest no es significativamente diferente que la construcción de cualquier otro tipo de modelo predictivo. El objetivo es tener un comportamiento similar de la muestra como se tiene en la muestra. Como tal, existen metodologías desarrolladas en las estadísticas y de aprendizaje de máquina que pueden ser de utilidad:

  • Entender el sesgo/varianza de equilibrio. Esto está cubierto en muchos lugares. Para una discusión técnica, consulte la clase 9 de Andrew Ng, de la máquina de aprendizaje de la clase en Stanford.
  • Ciertamente puede utilizar un conjunto de datos de entrenamiento y de prueba. Pero también hay otros tipos de enfoques que pueden ser utilizados. A las dos de la lista de opciones comunes: validación cruzada (similar a tener segmentado de datos, pero puede ayudar con la selección de parámetros) y el conjunto de métodos (el uso de múltiples modelos pueden superar a una sola, y reducir aún más la curva de ajuste de problema).

Así que un par de recomendaciones de carácter general:

  1. Su principio rector debe ser Einstein, la maquinilla de afeitar: "Todo debería ser tan simple como sea posible, pero no más simple.' En otras palabras, menos grados de libertad en el modelo equivale a menos oportunidad para el sobreajuste. En las estadísticas mundo, esto puede implicar la eliminación innecesaria de los parámetros a través de una selección o de regularización método.
  2. Robustez (en todo sentido) también es muy importante. Los parámetros que resultan en cambios bruscos en espera del error de predicción será más abierto que el riesgo de sobreajuste. Del mismo modo, si el modelo no tiene base fundamental, es que debe ser aplicable a un amplio número de activos.
  3. Por último, esto se aplica a cualquier tipo de modelo: entender sus datos, su modelo, sus objetivos, hipótesis, etc. Ha habido innumerables errores cometidos a lo largo del tiempo de la gente no entender el significado de sus modelos, implicaciones y riesgos. Esto incluye cosas como la ejecución de los supuestos y de los costos de transacción. Asegúrese de que tener todo en cuenta. Llevar al ser escépticos de sus datos, constantemente preguntando qué puede ir mal, o cómo puede ser que el futuro sea diferente. ¿Hay algún supervivencia sesgo en los datos, y si es así, ¿cómo se puede controlar por ella? Ha introducido ningún look-ahead sesgo?

9voto

Greg Puntos 1756

He visto Hansen SPA ('Superior Capacidad Predictiva') y la prueba de paso a paso variantes utilizadas para este propósito. Hansen de la prueba es una Studentized versión de Blanco de la Verificación de la Realidad. El paso a paso variantes permiten aceptar o rechazar la nula de ninguna capacidad predictiva en un subconjunto de algunas estrategias probadas, mientras que el mantenimiento de una tasa de error familywise.

En su libro, 'Basada en la Evidencia el Análisis Técnico,' David Aronson se analiza la overfit sesgo muy bien, aunque creo que sus técnicas para minimizar el sesgo puede aplicar solamente a las estrategias técnicas, porque se basan en simulaciones de Monte Carlo.

Referencias

7voto

EndangeredMassa Puntos 9532

La salida del modelo será una realización de sus supuestos. Shane dado una gran respuesta. Además de la muestra de prueba (es decir, la calibración en el período de X entonces la prueba en el período Y sólo a través de información disponible en el momento de cada transacción), me gustaría añadir que hay que probarlo en sub-períodos. Si usted tiene una gran cantidad de datos, que se rompen y ver cómo funciona en cada subconjunto de los datos.

7voto

tenfour Puntos 118

Este blog apunta a una presentación acerca de backtesting y el espionaje de datos: http://www.portfolioprobe.com/2010/11/05/backtesting-almost-wordless/

Creo que el único que no datasnooping método que hay es para el comercio directo. Pero el problema de espionaje de datos puede ser reducida por ver cómo significativo el backtest resultado es comparado a lo que habría sucedido si las operaciones fueron al azar. El uso de esta tecnología también hace claro que backtesting resultados pueden ser fácilmente engañar.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X