Soy nuevo aquí y en este campo. Espero que se me perdone mi torpeza al expresarme.
Mi situación es la siguiente: Tengo alrededor de tres años de datos de rentabilidad diaria de algún activo financiero. De estos tres años, hay un único día en el que la rentabilidad es superior a la de todos los demás días. (O bueno, en realidad es más de un solo día, pero por el bien del argumento vamos a suponer que tenemos un valor atípico claro).
Este único día de rentabilidad excesiva hace que el cálculo de la varianza (y del stdev) sea muy sensible al intervalo de rentabilidad que decida utilizar.
Si redujera la resolución y tradujera los datos de rentabilidad diaria en datos de rentabilidad mensual, la varianza anualizada del activo se dispararía (¡y mucho!) debido al simple hecho de que seguimos teniendo un punto de datos con una rentabilidad superior, pero ahora este punto de datos representa un mes en lugar de un día. En otras palabras, su impacto relativo en la varianza anual ha aumentado.
El resultado final es que obtengo varianzas completamente diferentes (y, como consecuencia, covarianzas, medidas beta, desviaciones típicas, ratios de Sharpe, etc.) en función del intervalo de rentabilidad que decida utilizar. En mi caso concreto: al cambiar de rendimientos diarios a mensuales, el ratio de Sharpe resultante se reduce a más de la mitad y la beta resultante se duplica (¡!).
Dos preguntas:
-
¿Supongo que el intervalo de retorno de menor resolución disponible (en mi caso: diario) me proporciona las aproximaciones más exactas de la varianza (y de todos los indicadores que se derivan de ella)?
-
¿Es frecuente esta discrepancia? Cuando leo un ratio de Sharpe o una medida de alfa en la hoja de resultados de algún gestor de fondos, ¿debo suponer que estas cifras pueden duplicarse (o reducirse a la mitad) fácilmente con sólo cambiar el intervalo de rentabilidad a partir del cual se calculan?