Las estrategias de negociación suelen tener muchos grados de libertad. Como ejemplo de juguete, digamos que tiene dos medias móviles (MA) que activan una operación cada vez que se cruzan: Hay al menos dos parámetros que podrían optimizarse, concretamente la longitud de cada MA.
Ahora bien, usted no querrá apostar su dinero a una estrategia que sólo por casualidad encontró que hay que tomar 57 días para una y 243 días para la otra MA (ver sesgo de espionaje de datos ). Lo que se quiere ver es que la estrategia como tal es sólida per se, es decir, robusta y no dependiente de la configuración exacta de los parámetros.
Una forma de hacerlo para dos parámetros es trazar un mapa de calor con los dos parámetros como ejes y un código de colores para el rendimiento respectivo de la estrategia en un backtest. Si sólo se ve ruido y muchas regiones convulsas de diferentes niveles de retorno es una buena señal de que no es una estrategia robusta. Si hay regiones más grandes de rendimientos positivos, estas regiones merecen una mayor investigación.
Mi pregunta
¿Cuáles son los métodos establecidos para encontrar regiones robustas de combinaciones de parámetros multidimensionales en las estrategias comerciales? El reto aquí: Obviamente, no se pueden visualizar más de tres grados de libertad y hay que hacer que estas ideas sean matemáticamente rigurosas.
Estimación de la densidad del núcleo multivariante me viene a la mente, pero esta es sólo mi primera idea. Agradezco cualquier pista, referencia y ejemplo de código (preferiblemente en R).
1 votos
Estoy de acuerdo con @madilyn. En mi opinión, debería preocuparse más por la capacidad de generalización de su modelo que por su robustez. Por lo tanto, recomendaría las técnicas de validación cruzada, ya que es bien sabido que el error medido en una prueba retrospectiva es un estimador con sesgo optimista del error de generalización esperado de su modelo (ya que su modelo se elige generalmente para minimizar el primer error).
0 votos
@Quantuple: Por supuesto que lo sé, sin embargo lo anterior podría ser un primer paso para entender más el comportamiento de la estrategia dentro de su espacio de parámetros. Si la estrategia ni siquiera es robusta no hay que preocuparse por la generalizabilidad.
0 votos
@Quantuple: Otra cosa es, por supuesto, que el uso de la validación cruzada en datos ordenados como las series temporales tiene sus propios desafíos - ver también aquí: stats.stackexchange.com/questions/14099/
1 votos
Lo que digo es, por el contrario, que si una estrategia no se generaliza bien (que es, finalmente, lo único que te interesa) ni siquiera debería importarte si el procedimiento de estimación numérica de sus parámetros es robusto. En otras palabras, al elegir una solución "robusta" (centrándose aquí en los extremos locales de la función objetivo cuya vecindad en el espacio de los parámetros es plana, en lugar de un extremo global), restringes efectivamente tu clase de modelo, lo que puede conducir potencialmente a restringirte a estrategias que están destinadas a ser pobres en la generalización.
2 votos
... y por supuesto tienes razón, el CV para datos de series temporales es un reto, al menos el estándar $K$ -CV doblado. Así que supongo que lo que estoy diciendo es que lo que sugieres está bien, pero debería ser parte de la "identificación de la estrategia" y el conjunto debería pasar por una validación (cruzada) para tener una buena idea del error de generalización.