No estoy familiarizado con el concepto de entropía para las series temporales. Estoy buscando buenos documentos de referencia y ejemplos de uso.
Acaba de revisar su primer documento. Muy bueno, gracias por el enlace
No estoy familiarizado con el concepto de entropía para las series temporales. Estoy buscando buenos documentos de referencia y ejemplos de uso.
Como buen punto de partida, lea este reciente artículo de Jing Chen:
http://papers.ssrn.com/sol3/papers.cfm?abstract_id=1734526
Para un uso especial del concepto de entropía en la previsión del accidente del 87, lea este artículo:
http://papers.ssrn.com/sol3/papers.cfm?abstract_id=959547
(Aunque intenté ponerme en contacto con los autores para obtener los datos que reprodujeran sus conclusiones, que no enviaron, sigue siendo una lectura esclarecedora)
Para una exposición más popular del uso de la entropía en la gestión del dinero (palabra clave "fórmula de Kelly") debería leer este inteligente pasapáginas de Poundstone: Fórmula de la fortuna
EDIT: Un artículo bastante interesante es este en el que se deriva el Black-Scholes mediante el uso de conceptos de entropía relativa: http://www.mdpi.com/1099-4300/2/2/70/
Busque en Google la causalidad de Granger y su versión general, la entropía de transferencia, para saber si una serie temporal tiene una relación causal con otra (se mide calculando cuánto disminuye la entropía condicional de una serie temporal si conocemos otra, condicionada a todo lo demás que conocemos).
He aplicado el concepto de entropía y, más concretamente, de entropía condicional a la difusión (es decir, como modelo de fijación de precios para obtener una idea del valor) y a las decisiones de ejecución. Es bueno para cada vez que te enfrentas a un problema del tipo, dado X cuál es la función de densidad de probabilidad de Y.
Además, el concepto de información mutua que evalúa la dependencia mutua entre dos variables (aleatorias) puede ser útil en muchas aplicaciones. De nuevo me viene a la mente la divulgación, la gestión de riesgos, etc.
No hay documentos a mano, pero como siempre la wiki es bastante buena yendo
He intentado aplicar una entropía a las series temporales de P/L diarias de las carteras de acciones (mercados desarrollados).
He descubierto que existe una fuerte correlación entre la entropía y otras medidas de riesgo como la desviación estándar, el VaR y el CVaR. Por lo tanto, la entropía es una buena medida de riesgo.
Además, el cálculo de la entropía no se basa en ninguna suposición sobre la distribución de datos subyacente, por lo que es adecuado para la distribución con colas gruesas, ya que éstas no tienen segundo (desviación estándar) y a veces ni siquiera primer momento (media).
Además, y creo que este es mi hallazgo crucial, la entropía empieza a crecer antes que otras medidas mencionadas, por lo que puede emplearse como indicador de alerta temprana.
Para mi cálculo he utilizado el estimador de Kozachenko-Leonenko (véase el enlace {10} en Wiki y ici puedes encontrar su implementación en MatLab).
En cuanto a las fuentes, puedo recomendar esta: Entropía: ¿Una nueva medida de la volatilidad bursátil?
Viendo que has calculado la entropía sobre los rendimientos diarios, ¿el estimador de Kozachenko-Leonenko se vuelve inexacto para conjuntos de datos de muestras pequeñas (mensuales)? y ¿hay alguna otra razón por la que alguien se molestaría en mirar la entropía de los rendimientos de las acciones cuando es simplemente una correlación (un reflejo de) cualquier otra medida de riesgo?
@develarist: No diría que el estimador KL no es preciso, sin embargo, creo que las rentabilidades diarias me pueden dar una mejor visión, las mensuales pueden ser demasiado "promediadas". Sobre la molestia de la entropía - el problema es que algunas medidas de riesgo utilizadas actualmente, por ejemplo la desviación estándar, no están bien definidas para todas las distribuciones (por ejemplo la distribución Cauchy tiene una desviación estándar infinita pero tiene una entropía finita).
FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.