$v$ debe ser el número total de parámetros (constantes + AR + MA + GARCH + ARCH).
No estoy de acuerdo con @kiwiakos, se utiliza la distribución t(df) de student porque estamos utilizando errores estándar que son estimaciones de desviaciones típicas (y no desviaciones típicas verdaderas) para calcular la estadística. Esta es la razón por la que utilizamos la prueba t de student aunque la distribución asintótica de los parámetros sea gaussiana.
La fórmula para el valor p es entonces :
Ejemplo :
Coeff = 0,15
Error estándar = 0,064 (o errores estándar robustos)
El estadístico t es: 0,15/ 0,064 = 2,3438 (no es un estadístico p porque utilizamos el error estándar).
t-prob = p-valor = 2*(1-tcdf( | 2.3438 | ,n-v)) ( p-valor con una dist de student y no p-valor con una dist normal !)
EDITAR
Esto no es específico de los parámetros GARCH, sino de la teoría de las pruebas estadísticas.
La idea principal :
Debemos utilizar la prueba z sólo si no hay uncert varianza de la población. Sin embargo, rara vez es así, por lo que el valor p se obtiene utilizando la distribución t de Student. Si el tamaño de la muestra es suficientemente grande, puede utilizarse la distribución normal (es decir, la prueba z).
Sea X una variable aleatoria gaussiana, y sea $\bar{X}$ sea la media muestral.
La estadística estandarizada z se distribuye normalmente ( véase el teorema del límite central) y viene dada por:
$z = (\bar{x} - m_{0} )/ \sigma_{\bar{X}} $
donde $\sigma_{\bar{X}} $ es la desviación típica de la media muestral. Podemos calcular esta desviación típica basándonos en la población desviación $\sigma_{X}^{2}$ y viene dado por : \begin{equation*}\begin{aligned} \sigma_{\bar{X}}^{2} &=& var\{\dfrac{1}{n}(X_{1}+\ldots + X_{n})\}\\ &=&\dfrac{1}{n^2} var\{( X_{1}+\ldots + X_{n} )\}\\ &=&\dfrac{1}{n^2} (\sigma_{X}^{2}+ \ldots+ \sigma_{X}^{2})\\ &=&\dfrac{1}{n^2} (n\sigma_{X}^{2})\\ &=& \frac{\sigma_{X}^{2}}{n} \end{aligned}\end{equation*}
Sin embargo, como no conocemos el población desviación $\sigma^{2}_{X} $ necesitamos emplear una estimación para ello y esto introduce algunas incertidumbre . Para aproximar la varianza de la población $\sigma_{X}^{2}$ (generalmente) empleamos el muestra varianza dada por :
\begin{equation*} s_{X}^{2}=\dfrac{1}{n-1}\sum_{i=1}^{n}(X_{i}-\bar{X})^{2} \end{equation*}
A continuación, la varianza de la media muestral se aproxima de la siguiente manera :
$\widehat{ \sigma^{2}_{\bar{X}}} = \frac{s_{X}^{2} }{ n}$
(en lugar de $ \frac{\sigma_{X}^{2}}{n}$ )
Así que el errores normativos (que tiene en cuenta esta incertidumbre) son :
$ se = \sqrt{\widehat{ \sigma^{2}_{\bar{X}}} } = \frac{s_{X} }{\sqrt{n}}$
la prueba z se modifica de la siguiente manera:
$z = \frac{ \bar{x} - m_{0} }{ \sigma_{\bar{X}} } $
se convierte en :
$t = \frac{ \bar{x} - m_{0} }{ se } $
y $t$ tendrá una distribución t student con (n-número de parámetros) grados de libertad (véase aquí ).
El hecho de que empleemos los errores estándar en lugar de la desviación estándar hace que la prueba Z sea una prueba T . Cuando utilizamos el método MLE, es lo mismo, podemos sustituir X por los parámetros estimados (que son variables aleatorias asintóticamente gaussianas). No empleamos sus verdaderas desviaciones típicas, sino una estimación de las mismas. El hessiano nos da los errores estándar, no las desviaciones estándar (porque hay incertidumbre - no observamos la población sino una muestra). Así que deberíamos emplear el $t$ prueba.
Tenga en cuenta que, cuando $n$ (el número de observaciones) aumenta, la distribución t de Student se acerca más a la distribución normal y, por tanto, los valores p obtenidos con la distribución normal o con la distribución t de Student serán iguales (véase el comentario de @John). Esto es lógico porque la incertidumbre disminuye a medida que aumenta el número de observaciones.
0 votos
El número de parámetros de un modelo GARCH(p, q) gaussiano es igual a 1 + p + q.
0 votos
Además, si utiliza datos diarios, n debería ser mucho mayor que v.
0 votos
Evidentemente, tienes razón en cuanto al número de parámetros de un modelo GARCH gaussiano. He sugerido $v = 2$ basado en lo que leí en internet sobre tomar $n-2$ grados de libertad para calcular los valores p en regresiones lineales. Y sí, n es mucho mayor que v.