Supongamos que usted está ejecutando una cartera de estrategias cuantitativas y que desarrolle una nueva estrategia potencial para ser añadido a la mezcla. Supongamos por simplicidad que la nueva estrategia es independiente de la estrategia existente. La nueva estrategia se basa en la información que hay disponible, volviendo de X años. De continuar por backtesting y la optimización de los parámetros de la nueva estrategia "en la muestra" parte de su conjunto de datos, mientras que la reserva de un "fuera de muestra" parte de la validación. La nueva estrategia del peso en su cartera será determinado por su fuera-de-muestra el rendimiento. Su objetivo es maximizar su total ratio de Sharpe. ¿Cuál es la proporción ideal de la longitud de la muestra de longitud de la muestra?
Respuestas
¿Demasiados anuncios?Curiosamente no hay ninguna teoría científica que sugiere ¿qué fracción de los datos deben ser asignados a la formación y las pruebas y los resultados pueden ser muy sensibles a estas opciones.
De Comercio Cuantitativo por Ernest Chan (p. 53-54):
Fuera de la Muestra, Prueba de Dividir los datos en dos partes. Guarde el segundo (más reciente), parte de los datos de la muestra pruebas. Al construir el modelo, optimizar los parámetros así como otros cualitativa decisiones en la primera parte (que se llama la formación conjunto), pero la prueba de que el modelo resultante en la segunda parte (que se llama el test set). (Las dos partes deben ser aproximadamente iguales en tamaño, pero si no hay suficientes datos de entrenamiento, se deben tener por lo menos un tercio como mucho de los datos de prueba como datos de entrenamiento. [...]
Para los más sofisticados métodos de ver la Evidencia basada en el análisis técnico por David Aronson p. 321-323.
Me gustaría añadir que una vez que la estrategia ha sido revisado para reflejar estos datos ya no son "fuera de muestra" o en otras palabras: Si a optimizar su estrategia de "fuera de muestra" en los que incurrirá el espionaje de datos sesgo a través de ajuste de curvas con todo! O como Aronson pone:
el estado Virginal de los datos reservados de la muestra de prueba ha una vida útil corta. Se pierde tan pronto como se usa una vez.
Yo creo que depende de muchos factores: de las características del mercado, la consistencia en el mercado, el número de parámetros, la optimización de los criterios y la metodología, el marco de tiempo (si se comercia semanal, por hora, por minuto, etc), e incluso la estrategia de negociación.
Un enfoque para responder a esta pregunta sería a prueba en muchos activos diferentes y comparar los resultados de diferentes en la muestra de la muestra de las proporciones. Por ejemplo, si usted tiene un sistema de comercio con grandes acciones de capitalización, entonces tal vez usted puede probar diferentes en la muestra de la muestra de los coeficientes de 100 grandes poblaciones de cap. Luego de analizar el promedio y distribución de la razón de Sharpe para cada uno en la muestra de la muestra de la relación.
Yo estaría buscando no sólo un alto promedio de la Ratio de Sharpe, pero algunos de bajos valores atípicos.
Por el camino, debido a los muchos problemas de en la muestra de la muestra de prueba, me pregunto si hay otros enfoques que tienen una mayor probabilidad de que la producción rentable de los sistemas.
Otro enfoque es el uso de k retirarse o dejar uno fuera de validación cruzada por la división de la serie de tiempo en una serie de "trozos" de acuerdo con el valor de k se desea utilizar.
Esta es una buena pregunta. En lugar de seleccionar al azar la relación, debe ser seleccionada basándose en menos de dos criterios.
- Máximo de la muestra de prueba para comprobar la efectividad de la estrategia
- Máximo en la muestra de la prueba de modo que la máquina modelo de aprendizaje tiene datos suficientes para aprender y, al mismo tiempo, no debería ser el sobreajuste.
El primer objetivo se puede lograr mediante el uso de K fold cross-validation. En estos, el conjunto de datos completo está disponible para fuera de la muestra de prueba. Este método divide el conjunto de datos en K igual o cercana a partes iguales. Cada una de estas partes se llama un "pliegue". Por ejemplo, puede dividir el conjunto de datos en 4 partes iguales, es decir, P1, P2, P3, P4.
El primer modelo M1 está entrenado en P2, P3, y P4 y probado en P1. El segundo modelo está entrenado en P1, P3, y P4 y probado en P2 y así sucesivamente. En otras palabras, el modelo que está entrenado en la unión de todos los subconjuntos excepto la i-ésima.
El rendimiento de la modelo que se ha probado en la i-ésima parte.
Cuando este proceso se haya completado, usted terminará para arriba con cuatro valores de exactitud, uno para cada modelo.
Para lograr el segundo objetivo que usted necesita para mantener la información suficiente para hacer backtesting. Esto variará de aplicaciones para las aplicaciones. Pero en general, usted puede mantener 3/4 o el 75% de los datos para el entrenamiento.
Gracias!