2 votos

La maximización de un GARCH probabilidad: Buenas prácticas de restricción de las soluciones y los valores iniciales

Actualmente estoy trabajando en el modelo de precios de opciones y me gustaría incluir un método para maximizar la probabilidad de retorno en la P de la medida. Yo estoy usando la Heston y Nandi (2000) modelo: \begin{align} ln S_{t+1} - ln S_t := r_{t+1} &= r_{ft+1} + \lambda h_{t+1} - \xi_{t+1} + \sqrt{h_{t+1}} z_{t+1}, \; z_{t+1} \sim N(0,1) \\ h_{t+1} &= \sigma^2 + \pi \left( h_t - \sigma^2 \right) + \alpha \left(z_t^2 - 1 - 2 \gamma \sqrt{h_t} z_t \right). \end{align}

Anteriormente, la frecuencia de los datos serán todos los días. Por otra parte, $\xi_{t+1}$ es una convexidad de corrección que asegura que espera que los rendimientos brutos $E_t(S_{t+1}/S_t) = E_t(\exp r_{t+1}) = \exp(r_{ft+1} + \lambda h_{t+1})$. Desde $z_{t+1} \sim N(0,1)$, el logaritmo de la condicional momento de generación de la función es $\xi_{t+1} = h_{t+1}/2$.

RESTRICCIONES

La primera cosa que he pensado en hacer para la estabilización de la estimación es para asegurarse de $h_{t+1}$ se encuentra dentro de ciertos límites. Me imponer que en todos los tiempos, $h_{t+1} > 0.01^2/N_{days}$ (es decir, estoy excluyendo la posibilidad de ver los días con anualmente volatilidad por debajo del 1%). Desde que estoy trabajando con el S&P500, supongo que no es una locura. Yo también imponer que no puede ser mayor de 5 (es decir, la volatilidad anualizada en un día no puede exceder de 500%). No es una locura, sobre todo desde que mi muestra se detiene en 2013. Yo aplicarla directamente en la etapa de filtración de la optimización:

        for tt in range(0,T-1):
            z[tt]   = ( series[tt] - (lambda_-0.5)*h[tt] )/sqrt(h[tt])
            h[tt+1] = sigma2 + persistence*(h[tt] - sigma2) + alpha*(z[tt]**2 - 1 - \
            2*gamma*sqrt(h[tt])*z[tt])

        # To ensure smooth optimization, enforce bounds on h(t+1):
        h[tt+1] = max(self.h_min, min(h[tt+1], self.h_max))

Y, obviamente, tenía una bandera para que me diga si me forzada de los límites.

La otra cosa que estoy haciendo es que yo soy de la literatura en la estimación de $\sigma^2$ utilizando el total de la muestra y fuera de la MLE: $\hat{\sigma}^2 := \frac{1}{T-1} \sum_{t=1}^{T} \left( r_{t+1} - \bar{r} \right)^2$. Se llama "variación de la orientación" y es típico en GARCH opción de fijación de precios de los papeles. La última cosa que me gustaría hacer es imponer límites en $\pi$, específicamente $|\pi| < 1$. Yo también podría poner límites en $(\alpha, \gamma)$ utilizando los resultados anteriores de la literatura, pero no estoy seguro de que va a totalmente necesario. Creo que debería asegurarse de que nada loco que sucede, pero si usted tiene comentarios o sugerencias, estoy muy abierto a ellos.

INICIALIZACIÓN

Ahora, para que una parte, no tengo idea de por donde empezar. Supongo que si imponer límites sobre todo, pude recoger un montón de puntos aleatorios con uniformes de variables aleatorias e ir con la solución que funciona mejor entre ellos. Yo también podría lucir en el trabajo anterior y inicializar en o cerca de sus estimaciones.

Aquí, realmente agradecería algunos consejos para las mejores prácticas.

DONDE TODO ENCAJA

Sólo para que usted sepa a dónde va esto, la idea es calibrar el HN2000 modelo de precios de opciones Europeo en el S&P500 usando un conjunto de probabilidad. Lo que ves arriba es el P-medida de la parte. El Q-medir la parte del uso de Q-dinámica de los precios de los productos que a su vez se expresa como la volatilidad implícita. El P-probabilidad sería una gaussiana probabilidad en la volatilidad de la superficie, en otras palabras.

Así, usted está buscando en el paso 1 y que necesita para asegurarse de que esto funciona bien antes de pasar al paso 2. Gracias de antemano.

1voto

Daniel Puntos 45

Os recomiendo echar un vistazo a Christoffersen, Heston Jacobs (2013), ya que la conducta de un conjunto y un análisis secuencial y lo más importante es que de ser no-lineal de precios kernel que usted puede integrar fácilmente en el HN2000 modelo.

Con respecto a $h_0$ e $h_t$:

Para $h_t$ un valor inicial necesita ser establecido. Heston y Nandi (2000) tomar la varianza de la muestra como un valor de partida, sin embargo, me encontré con que sólo la adopción de la varianza de la anterior digamos 15 días de negociación funciona muy bien también. Este viene con una serie de beneficios. En un tiempo de retorno de la muestra (que es lo que quieres para un GARCH análisis), recorrer todo el camino de regreso al valor inicial en cada una de las observaciones es computacionalmente costoso.

Por lo tanto, en cada punto en el tiempo en la estimación, sólo los siete valores anteriores son considerados, con el séptimo no depender de los ocho, pero en cambio en la varianza de los 15 días anteriores. De esta manera 22 días de negociación de la información histórica se consideran en cada paso de la rutina de optimización, que corresponde aproximadamente a un mes de tiempo. Por supuesto, usted puede también ir más atrás y usted debe analizar si que hace una diferencia significativa para sus datos y su caso.

En mi caso, la log-verosimilitud hizo, de hecho, se incrementan con cada período anterior añadió, sin embargo, por lo menos en cada paso. Mientras que esto parece ser un restrictiva suposición resulta que los resultados están muy en línea con otros estudios empíricos. Una posible explicación es que el valor inicial implícita por parte de los 15 días de la varianza es generalmente mucho más cerca del nivel de la varianza condicional de la varianza de la muestra, por lo tanto, requiere menos períodos de converger. Además, he encontrado el valor inicial de la varianza condicional, $h_0$, ejerce una influencia insignificante en los resultados. Como Heston y Nandi (2000) nota, esto es causado por la fuerte media-reversión de la propiedad de la varianza.

Respecto al parámetro de retorno ($\mu$):

La estimación del parámetro de retorno (en mi caso $\mu$) sin ningún tipo de restricción conduce a fluctuaciones en los valores, e incluso llegar a territorio negativo en algunos puntos. Dándole un rango razonable de los valores de partida evita este problema, sin imponer ningún tipo de limitaciones. Por otra parte, como CHJ (2013) nota, realista valores de $\mu$ rápidamente puede ser inferida a partir de datos de mercado. Anual de la equidad de la prima de riesgo dado por $\mu h_t$ = 10% y una volatilidad anualizada de alrededor del 21% implica $\mu$ = ~2.26. Estos son promedio aproximado de retorno y volatilidad de los valores para los años de la muestra.

Dos notas sobre esto:

  • CHJ (2013) aparentemente imponer $\mu$ = 0 después de haber obtenido el original HN (2000) los parámetros del modelo en su estimación secuencial, sin dar una razón explícita.
  • El valor de p $\mu$ es bastante alta, y en los resultados finales, en mayor o menor parámetro, incluso en el orden de magnitud de un 50%, es apenas perceptible. Así, si se ajusta a cero, o dándole un período de puesta en valor y la restricción debe ser un buen enfoque.

Con respecto a $\omega$:

En menor medida, lo mismo vale para $\omega$. Algunos autores, como Byun (2011) y de la CHJ (2013), obtener ligeramente negativo o muy pequeños los valores de $\omega$ y, por tanto, a es igual a cero. Mientras esto reduce el tiempo de cálculo que conducen a una reducción significativa de registro de las probabilidades en mi análisis. Propongo para la estimación de $\omega$ libremente y proporcionar la sugerencia alternativa de ajuste razonablemente pequeño número en la región de $1*10^-7$ a $1*10^-6$. Esta gama está respaldada por los resultados de un gran número de acreditados obras (por ejemplo, Heston y Nandi (2000), Christoffersen y Jacobs (2004) y Christoffersen et al. (2012)), así como de nuestros propios resultados y los de estos parámetros, explica entre $1.6$% y $5$% anual condicional de la desviación estándar.

Combinar este conocimiento con la sugerencia para inferir $\mu$ a partir de los datos del mercado, no sólo para comprobar la plausibilidad, pero a omitirlo de la estimación, se reduce el problema de calibración de cinco a tres parámetros, lo que le permite pasar más tiempo en la búsqueda de mejores valores para los parámetros restantes.

El resto de parámetros de $\alpha$, $\beta$ e $\gamma$:

Estos parámetros, en particular, $\beta$ tienen un gran impacto en los resultados. Por lo tanto, es crucial para estimar con exactitud y precisión, ya que cualquier desviación ha comparativamente grandes implicaciones.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X