8 votos

Estimación de la deriva de un proceso no estacionario

Me gustaría estimar el deriva de una trayectoria continua, no estacionario Proceso estocástico $X_t$ a partir de una serie temporal de valores $\{X_{i\Delta t}\}_{i=1,\dots,N}$ muestreo de una sola realización de ese proceso a lo largo de $t \in [0,T]$ .

Aunque el objetivo es calibrar un modelo de precios (especificado en $\Bbb{Q}$ ) basado en series históricas (observadas bajo $\Bbb{P})$ podemos olvidarnos de esto y asumir que estamos trabajando bajo una única medida $\Bbb{P}$ .

Me he topado con un pregunta similar pero, desgraciadamente, las referencias proporcionadas se aplican a los procesos que admiten una distribución estacionaria (= procesos Ornstein-Uhlenbeck de deriva lineal utilizados para la modelización de los tipos de interés) un supuesto del que me gustaría alejarme.

En realidad, mis supuestos podrían incluso simplificarse más al caso de un simple movimiento browniano aritmético con deriva $$ dX_t = \mu dt + \sigma dW_t $$

Mi pregunta es: ¿puede alguien indicarme un método "bonito" para obtener un estimador $\hat{\mu}$ de $\mu$ de la observación de un $N$ -muestra $\{X_i\}_{i=1,...,N}$ donde por "agradable" quiero decir que las propiedades de muestra finita de este último estimador deberían ser mejores que el estimador MLE (= LSE) habitual $$\hat{\mu} = \frac{1}{N-1} \sum_{i=1}^{N-1} \Delta X_i $$ cuyo error relativo es proporcional a $1/\sqrt{N\Delta t}$ es decir, al horizonte temporal $T=N \delta t$ sobre la que se recoge la muestra de datos, pero no al número de puntos de datos $N$ lo que lo hace casi inútil en la práctica.

Me interesan especialmente las respuestas en las que el autor haya tenido una experiencia exitosa en la aplicación del método que propone en la práctica. Porque yo mismo me he encontrado con diferentes enfoques/algoritmos, pero ninguno me ha resultado satisfactorio.

0 votos

Lo siento si es una sugerencia increíblemente tonta, pero ¿por qué no tomar la diferencia media del logaritmo natural de las observaciones discretas de X con la mayor frecuencia de muestreo posible? He oído a numerosos operadores cuánticos advertir del "arrastre de la volatilidad" en los rendimientos. Este problema es de percepción: desaparece si se utilizan logaritmos a la misma base. Además, la media sigue siendo la medida de tendencia central más insesgada que conozco.

0 votos

@DavidAddison ¿Por qué el logaritmo natural? ¿Quizás te refieres al GBM y no al ABM? Además no me parece un problema de sesgo, sino de varianza en este caso.

0 votos

Culpa mía los registros no tienen sentido en ABM. ¿Por qué no tomar simplemente las medias aritméticas de las diferencias en observaciones discretas de X? El CLT funciona a su favor a medida que aumenta el tamaño y la tasa de muestreo. ¿No debería $\mu_s \to \mu_p$ como $t \to \infty$ ?

2voto

Muhammed Refaat Puntos 97

Ya veo... el problema de un marco temporal demasiado largo es que la mayoría de las series temporales no son estacionarias: las medias y las varianzas tenderán a fluctuar. Dada la no estacionariedad de nuestras series temporales, y dado que nunca es posible la ausencia de incertidumbre, estamos condenados si esperamos un tamaño de muestra mayor, y condenados si no lo hacemos.

Pero asumiendo que se sabe cómo es la función generadora de momentos subyacente (ABM en este caso), se pueden hacer algunas suposiciones simplificadoras que permiten determinar los valores p para rechazar una hipótesis nula (es decir, que $\mu_s = \mu_p$ ) y la potencia estadística de un determinado $T$ . En otras palabras, si se sabe que es AGM y se pueden definir niveles aceptables de sensibilidad (tasas de error de tipo II) y especificidad (tasas de error de tipo I), se puede elegir un $T$ que equilibra el ideal de certeza con la practicidad.

Además, si sabemos que

$$\sqrt{N}(\frac{1}{N}\sum_{i=1}^{N}(X_{i}-X_{i-1}) - \mu) \to ^d N(0,\sigma^2)$$

también podemos deducir que la técnica LSS para la estimación $\mu_p$ de ABM converge a la media aritmética. Descargue este modelo discreto para comprobar esta afirmación: http://the-world-is.com/blog/wp-content/uploads/2017/03/AGM-Estimators-with-LSS.xlsm

Una alternativa a la media aritmética incluye una clase de estimadores conocidos como estimadores de máxima verosimilitud (MLE). Los MLE tienden a estar sesgados... eliminar ese sesgo es algo complicado. Sin embargo, proporcionan una forma general de ajustar los parámetros a las observaciones. Personalmente, sólo los utilizo cuando intento desarrollar una intuición sobre si un determinado conjunto de parámetros es razonable.

Las funciones y regresiones ponderadas exponencialmente son otra opción. La ponderación exponencial refleja la intuición de que la observación reciente tiene más peso, pero que las series temporales tienden en la práctica a tener memoria a largo plazo. Si se sabe que se trata de una GPA, pero no se sabe si los momentos son no estacionarios, las regresiones ponderadas por el tiempo producirán mejores estimaciones de los momentos actuales subyacentes que otros métodos. Se pueden utilizar MLEs para calibrar las ponderaciones -- yo suelo utilizar sólo la cifra de que quiero construir un 10% de disminución anual en las ponderaciones, por lo que el factor discreto real depende de la frecuencia de muestreo y del tamaño de la muestra. Personalmente, he tenido mucho éxito "fijando y olvidando" estos en el mundo real. Además, es relativamente sencillo dar con una clase de funciones tales que las ponderaciones discretas sumen uno.

Los modelos G-ARCH combinan la ponderación exponencial con un proceso de reversión media a largo plazo. Normalmente se utilizan MLEs para estimar los parámetros. Si se asume que se está tratando con ABM sin reversión a la media, no hay razón para utilizar ninguno de los modelos de la familia ARCH. Incluso si se comprueba la estacionariedad, las pruebas de root unitaria son mucho más sencillas.

Espero que esta respuesta sea oportuna.

2voto

akalenuk Puntos 1738

Existe un modelo bayesiano simple, que sólo es un poco menos simple si hay una restricción presupuestaria estocástica. La probabilidad sería $$\mathcal{L}(x_1\dots{x_{n}}|\mu;\sigma)=\frac{1}{\pi}\frac{\sigma}{\sigma^2+(x_{t+1}-\beta{x_t}-\alpha)^2}.$$

Lo he aplicado con éxito. Si quieres probar esto, debes usar la distribución predictiva bayesiana como tu prueba usando un método de puntuación.

La densidad posterior bayesiana, que es $$p(\mu;\sigma|\mathbf{X})\frac{\mathcal{L}(\mathbf{X}|\mu;\sigma)p(\mu;\sigma)}{\int_{-\infty}^\infty\int_0^\infty\mathcal{L}(\mathbf{X}|\mu;\sigma)p(\mu;\sigma)\mathrm{d}\sigma\mathrm{d}\mu},\forall\mu;\sigma\in\Theta$$ es la base de la predicción, donde $\Theta$ es el espacio de los parámetros. Esto se convierte en una distribución predictiva por integración como $$p(\tilde{x}_{t+1}|\mathbf{X})=\int_{-\infty}^\infty\int_0^\infty\mathcal{L}(\tilde{x}_{t+1}|\mu;\sigma)p(\mu;\sigma)\mathrm{d}\sigma\mathrm{d}\mu,\forall{x_{t+1}\in\chi},$$ donde $\chi$ es el espacio muestral futuro. Observe que las predicciones, la distribución de la izquierda, ya no dependen de las estimaciones para el parámetro que están a la derecha y ahora dependen sólo de sus datos observados. Querrá aplicar una función de puntuación que sea menos que cuadrática.

Existe una prueba de White en 1958 de que no existe una solución no bayesiana para este problema. Para su información, esto fue para su serie temporal aritmética.

Deberá pensar en su previa, por ejemplo, si $\beta>1$ entonces debe darse el caso de que la distribución a priori sea cero en valores menores o iguales a uno. Como método bayesiano, es imposible encontrar un estimador más eficiente de todos modos, ya que los métodos bayesianos con una prioridad que aborda razonablemente sus creencias son intrínsecamente un estimador admisible.

También hay que tener en cuenta que $\sigma$ no es una desviación estándar y no hay ninguna expectativa en este modelo. $\beta$ no es como el estimador OLS. Es una construcción más débil. Sí satisface la función de pérdida absoluta lineal. Este modelo parece tener heteroscedasticidad, pero eso es incorrecto. Es un modelo askástico, no un modelo heteroskedástico. La heteroskedasticidad de la muestra es lo que se obtiene, con la agrupación de la volatilidad. Ignóralo. Eso se predice por las matemáticas para una solución de valor fijo. De hecho, en este caso, $\sigma$ es en realidad una medida directa de la heteroscedasticidad de los precios y simultáneamente un parámetro de escala para el modelo.

Para probarlo, descárgate el Dow y haz ajustes por el número de días que el mercado está cerrado. Compáralo con cualquier método que se te ocurra. Probablemente querrá construir su propio algoritmo Metropolis-Hastings. Empieza con un programa de escalada y permite decenas de millones de iteraciones y construye un método para salir de los máximos locales. Si te acercas lo suficiente a la estimación global máxima a posteriori, entonces no habrá quema de MCMC cuando ejecutes el algoritmo M-H.

0 votos

¿Podría derivar su primera ecuación y explicar qué $(\alpha, \beta)$ ¿es? ¿Le importaría también comparar su método con los referidos en quant.stackexchange.com/a/2957/6686 ? Gracias, Dave.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X