El sesgo de previsión significa que tendemos a sobreestimar el valor de la opción americana. Esto lo observamos en otras áreas de la estadística, por ejemplo en pruebas de muestra casi siempre dan una mejor predicción que las pruebas fuera de muestra en modelos de regresión lineal.
Mi pregunta es: ¿se sabe (teórica o empíricamente) si este sesgo se reduce al aumentar el tamaño de la muestra en el algoritmo de Monte Carlo de mínimos cuadrados?
He realizado algunas simulaciones por mi cuenta. A partir de mis simulaciones, al menos para los modelos en los que he trabajado, la respuesta parece ser sí.
Presumiblemente esto se debe simplemente a que una muestra más grande tiende a significar que la distribución muestral del estimador tiene una varianza más pequeña blah blah blah.
¿Existen resultados teóricos o estudios empíricos sobre esto?
Editar: el sesgo de previsión también se conoce como sesgo de anticipación