3 votos

Grados de libertad en el cálculo de la significación de los coeficientes GARCH

Estoy tratando de determinar la significación de los coeficientes de un modelo GARCH mediante el cálculo de los valores p utilizando la siguiente fórmula de Matlab:

pvalues = 2*(1-tcdf(abs(t),n-v)),

donde $t$ es la t-stat, $n$ el número de observaciones y $v$ los grados de libertad. ¿Debo utilizar $v=2$ como el número de grados de libertad o depende del número de parámetros a estimar, como en la regresión lineal?

0 votos

El número de parámetros de un modelo GARCH(p, q) gaussiano es igual a 1 + p + q.

0 votos

Además, si utiliza datos diarios, n debería ser mucho mayor que v.

0 votos

Evidentemente, tienes razón en cuanto al número de parámetros de un modelo GARCH gaussiano. He sugerido $v = 2$ basado en lo que leí en internet sobre tomar $n-2$ grados de libertad para calcular los valores p en regresiones lineales. Y sí, n es mucho mayor que v.

1voto

fkydoniefs Puntos 11

Antes de empezar a preguntar por el número de dof, ¿cómo sabes que la distribución muestral finita de los parámetros es student-t? No creo que lo sea. En regresión lineal son student-t debido a la linealidad y bajo suposición para la distribución residual.

En Garch se puede decir simplemente que si se estima utilizando la máxima verosimilitud entonces asintóticamente (no muestra finita) las distribuciones de los parámetros son gaussianas, con varianza proporcional a la inversa de la Hessiana de la función log-lik.

Si se sigue ese camino, hay que resistirse al atajo de utilizar el hessiano que arroja el optimizador. Además, hay que recordar que los p-valores en este contexto son posiblemente cantidades sin sentido en primer lugar (como la ASA admitió recientemente).

0 votos

Dicho esto, he echado un vistazo al documento Garch 101 de Engle y parece que utiliza cálculos de valor p similares a la fórmula de la OP.

0 votos

¿Puede proporcionar una referencia (he escaneado rápidamente el artículo de Engle pero no he encontrado la Cdf de Student)?

0 votos

No proporciona la fórmula. Sólo proporciona valores p para los coeficientes. He utilizado un cálculo normal del valor p y he obtenido los mismos resultados.

1voto

Nick Klauer Puntos 2837

$v$ debe ser el número total de parámetros (constantes + AR + MA + GARCH + ARCH).

No estoy de acuerdo con @kiwiakos, se utiliza la distribución t(df) de student porque estamos utilizando errores estándar que son estimaciones de desviaciones típicas (y no desviaciones típicas verdaderas) para calcular la estadística. Esta es la razón por la que utilizamos la prueba t de student aunque la distribución asintótica de los parámetros sea gaussiana.

La fórmula para el valor p es entonces :

Ejemplo :

Coeff = 0,15

Error estándar = 0,064 (o errores estándar robustos)

El estadístico t es: 0,15/ 0,064 = 2,3438 (no es un estadístico p porque utilizamos el error estándar).

t-prob = p-valor = 2*(1-tcdf( | 2.3438 | ,n-v)) ( p-valor con una dist de student y no p-valor con una dist normal !)


EDITAR

Esto no es específico de los parámetros GARCH, sino de la teoría de las pruebas estadísticas.

La idea principal :

Debemos utilizar la prueba z sólo si no hay uncert varianza de la población. Sin embargo, rara vez es así, por lo que el valor p se obtiene utilizando la distribución t de Student. Si el tamaño de la muestra es suficientemente grande, puede utilizarse la distribución normal (es decir, la prueba z).

Sea X una variable aleatoria gaussiana, y sea $\bar{X}$ sea la media muestral.

La estadística estandarizada z se distribuye normalmente ( véase el teorema del límite central) y viene dada por:

$z = (\bar{x} - m_{0} )/ \sigma_{\bar{X}} $

donde $\sigma_{\bar{X}} $ es la desviación típica de la media muestral. Podemos calcular esta desviación típica basándonos en la población desviación $\sigma_{X}^{2}$ y viene dado por : \begin{equation*}\begin{aligned} \sigma_{\bar{X}}^{2} &=& var\{\dfrac{1}{n}(X_{1}+\ldots + X_{n})\}\\ &=&\dfrac{1}{n^2} var\{( X_{1}+\ldots + X_{n} )\}\\ &=&\dfrac{1}{n^2} (\sigma_{X}^{2}+ \ldots+ \sigma_{X}^{2})\\ &=&\dfrac{1}{n^2} (n\sigma_{X}^{2})\\ &=& \frac{\sigma_{X}^{2}}{n} \end{aligned}\end{equation*}

Sin embargo, como no conocemos el población desviación $\sigma^{2}_{X} $ necesitamos emplear una estimación para ello y esto introduce algunas incertidumbre . Para aproximar la varianza de la población $\sigma_{X}^{2}$ (generalmente) empleamos el muestra varianza dada por :

\begin{equation*} s_{X}^{2}=\dfrac{1}{n-1}\sum_{i=1}^{n}(X_{i}-\bar{X})^{2} \end{equation*}

A continuación, la varianza de la media muestral se aproxima de la siguiente manera :

$\widehat{ \sigma^{2}_{\bar{X}}} = \frac{s_{X}^{2} }{ n}$

(en lugar de $ \frac{\sigma_{X}^{2}}{n}$ )

Así que el errores normativos (que tiene en cuenta esta incertidumbre) son :

$ se = \sqrt{\widehat{ \sigma^{2}_{\bar{X}}} } = \frac{s_{X} }{\sqrt{n}}$


la prueba z se modifica de la siguiente manera:

$z = \frac{ \bar{x} - m_{0} }{ \sigma_{\bar{X}} } $

se convierte en :

$t = \frac{ \bar{x} - m_{0} }{ se } $

y $t$ tendrá una distribución t student con (n-número de parámetros) grados de libertad (véase aquí ).

El hecho de que empleemos los errores estándar en lugar de la desviación estándar hace que la prueba Z sea una prueba T . Cuando utilizamos el método MLE, es lo mismo, podemos sustituir X por los parámetros estimados (que son variables aleatorias asintóticamente gaussianas). No empleamos sus verdaderas desviaciones típicas, sino una estimación de las mismas. El hessiano nos da los errores estándar, no las desviaciones estándar (porque hay incertidumbre - no observamos la población sino una muestra). Así que deberíamos emplear el $t$ prueba.

Tenga en cuenta que, cuando $n$ (el número de observaciones) aumenta, la distribución t de Student se acerca más a la distribución normal y, por tanto, los valores p obtenidos con la distribución normal o con la distribución t de Student serán iguales (véase el comentario de @John). Esto es lógico porque la incertidumbre disminuye a medida que aumenta el número de observaciones.

0 votos

¿Una referencia con pruebas?

0 votos

@Kiwiakos ver editar

0 votos

No creo que la afirmación "cuando usamos MLE es lo mismo" constituya una prueba. Pero creo que estás confundiendo los resultados asimétricos y los de muestras finitas. MLE es una teoría asintótica solamente. No hay nada gaussiano, o t o lo que sea en muestras pequeñas. Sólo normalidad asintótica, bajo condiciones de regularidad. Las distribuciones de muestras finitas sólo pueden evaluarse mediante Monte Carlo/ bootstrapping.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X