Soy consciente de que una forma de realizar pruebas de significación sobre una estrategia se basa en la distribución muestral de su Sharpe (véase, por ejemplo, Lo, 2002 y Opdyke, 2008 ).
Sin embargo, me parece que hay otra forma muy sencilla de hacer inferencia directamente sobre la rentabilidad media y la desviación típica implícitas en el Sharpe. Me pregunto (1) si este enfoque es válido, o si estoy pasando algo por alto; (2) si hay alguna literatura sobre este y otros enfoques similares.
Dada una estrategia con un ratio de Sharpe diario (requerido / objetivo / basado en IS) $SR = \frac{\mu}{\sigma}$ con estadísticas de rendimiento $\mu$ (media) y $\sigma$ (desviación típica).
La cuestión es cuánto tiempo necesita la estrategia como mínimo para obtener rendimientos estadísticamente significativos.
Suponiendo rendimientos iid (gran suposición), la media muestral de los rendimientos diarios en el periodo OS después de $n$ días puede modelarse con (aunque probablemente sea más apropiado utilizar la distribución t) $$\hat\mu \sim \mathcal{N}\left(\mu, \frac{\sigma^2}{n}\right)$$ .
Definimos la significación estadística al nivel $\alpha$ como el $z_{1-\alpha}$ (prueba unilateral) de cero (es decir, la nula es que $\mu=0$ ): $$\hat\mu \geq z_{1-\alpha} \frac{\sigma}{\sqrt{n}}$$ .
Con la definición del Sharpe diario $SR = \frac{\mu}{\sigma}$ y sustituyendo $\mu=\hat\mu$ esto se convierte:
$$n \geq \left(\frac{z_{1-\alpha}}{SR}\right)^2$$
Intuitivamente, esto tiene sentido: Un Sharpe más bajo o un nivel de significación más alto aumentan el período mínimo de muestreo. Por ejemplo, a $\alpha=90\%$ obtenemos para una estrategia con un Sharpe anual de 1: $n \geq (1.28 * \sqrt{252} / 1)^2 \approx 413$ días, pero en $\alpha=95\%$ ya $n \geq 682$ días.
0 votos
Creo que mezclas dos cosas: si buscas rendimientos estadísticamente significativos, deberías probar que $\mu$ es distinto de cero. Si desea que Sharpe sea estadísticamente diferente de cero - se distribuye ~ t-distribución, por lo que la prueba en consecuencia