4 votos

Foresight bias en least square monte carlo

El sesgo de previsión significa que tendemos a sobreestimar el valor de la opción americana. Esto lo observamos en otras áreas de la estadística, por ejemplo en pruebas de muestra casi siempre dan una mejor predicción que las pruebas fuera de muestra en modelos de regresión lineal.

Mi pregunta es: ¿se sabe (teórica o empíricamente) si este sesgo se reduce al aumentar el tamaño de la muestra en el algoritmo de Monte Carlo de mínimos cuadrados?

He realizado algunas simulaciones por mi cuenta. A partir de mis simulaciones, al menos para los modelos en los que he trabajado, la respuesta parece ser sí.

Presumiblemente esto se debe simplemente a que una muestra más grande tiende a significar que la distribución muestral del estimador tiene una varianza más pequeña blah blah blah.

¿Existen resultados teóricos o estudios empíricos sobre esto?

Editar: el sesgo de previsión también se conoce como sesgo de anticipación

2voto

Michał Górny Puntos 351

1 votos

ssrn.com/abstract=2415594 es mi artículo que se enfoca en límites superiores pero también incluye una revisión de literatura para límites inferiores.

0 votos

Revisando esto, parece que el documento en la respuesta asume que la función de valor es la función estimada (en lugar del pago realizado). Creo que esto introduce innecesariamente un sesgo. Mi entendimiento es que la técnica está enfocada en opciones vanilla. En la práctica, estas opciones suelen ser valuadas usando árboles o EDP. No obstante, esta es una referencia útil.

0 votos

En el momento de escribir el comentario anterior, me di cuenta de que Mark falleció 19 meses después de su publicación a la edad de 48 años. :(

2voto

btelles Puntos 153

Recientemente, coautoricé un documento (Arxiv | SSRN) sobre el tema.

Puedes eliminar eficientemente el sesgo de anticipación (también conocido como sesgo de previsión) utilizando el método de validación cruzada excluyente (LOOCV). Básicamente, el procedimiento es (i) sacar una muestra, (ii) ejecutar la regresión usando el resto, (iii) obtener la predicción en la muestra eliminada y (iv) repetir el proceso para cada muestra. De esta manera, evitas el sobreajuste en la muestra. Afortunadamente, para la regresión lineal, podemos obtener la predicción ajustada de manera analítica sin tener que ejecutar la regresión tantas veces como el tamaño de la muestra.

Un truco de transición para eliminar el sesgo de anticipación es ejecutar una simulación independiente para la valoración fuera de muestra. Con el truco LOOCV, esto no es necesario.

Por qué ocurre el sesgo de anticipación en el algoritmo Longstaff-Schwartz y cómo se aplica LOOCV está ilustrado en gran medida en una figura en el documento.

LOOLSM

También mostramos que la cantidad de sesgo de anticipación (LOOCV también nos permite medirlo) es proporcional a $M/N$, donde $M$ es el número de variables de regresión y $N$ es el tamaño de la muestra (@Lost1, tienes razón en que el sesgo de previsión se reduce aumentando el tamaño de la muestra $N$). Tiene sentido intuitivo porque el sobreajuste en la regresión lineal aumenta con $M$.

1 votos

Gracias por compartir esto. Creo que la letra "h" se puede acceder utilizando la función de regresión lineal de statsmodel.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X