Un caso de estudio en un material de examen es el siguiente:
"Supongamos que el banco informa de un VAR diario de 100 millones de dólares con un nivel de confianza del 99%. Bajo la hipótesis nula de que el modelo VAR está correctamente calibrado, el número de excepciones debería seguir una distribución binomial con valor esperado de $E[X] = np = 250(1 0.99) = 2.5$ . El gestor de riesgos tiene que elegir un número de excepciones por encima del cual se rechazaría el modelo. La tasa de error de tipo 1 es la probabilidad de observar números superiores al punto de corte. Digamos que el gestor de riesgos elige $n = 4$ que corresponde a una tasa de error de tipo 1 o nivel de significación de $10.8\%$ . Por encima de 4, se rechaza el modelo de riesgo".
He calculado que el nivel de significación correspondiente a la observación de 4 excepciones es del 17,11%, utilizando la distribución normal estándar como sigue:
$$ z= (4 - np)/\sqrt{p(1-p)n} = (4-250(1-0.99))/\sqrt{0.01(1-0.01)*250}=1.5/1.573=0.95$$
$$P(-\infty < Z <0.95)=0.8289$$ $$ \alpha = (1-P)*2 = 0.1711 = 0.1811=17.11\%$$
¿Hubo algún error en mis cálculos?