Sí, esta técnica se llama reducción de la varianza de la coincidencia de momentos y, de hecho, puede conducir a una forma de reducción de la varianza. Los momentos de primer y segundo orden corresponden a la media y la varianza de la distribución. Se puede extender a momentos de orden superior, lo que, por supuesto, es más difícil de implementar y crea algunos gastos adicionales.
La media puede ajustarse mediante una corrección lineal:
$$\tilde{X}_i=X_i -\bar{X} + \mu_X$$
o una multiplicativa: $$\tilde{X}_i=X_i \frac{\mu_X}{\bar{X}}$$
donde $\bar{X}$ es la media de la muestra, $\mu_X$ la media exacta. Depende de la aplicación en cuestión para decidir cuál de ellas es más adecuada. Si el proceso $X_i$ tiene una media de cero, por supuesto no se usaría la versión multiplicativa. Del mismo modo, si el proceso es estrictamente no negativo, el método lineal podría hacer que algunos de los $X_i$ para convertirse en negativo, lo que tampoco es deseable. Así que tenlo en cuenta cuando realices el ajuste de momentos.
La combinación del momento de la media y la varianza puede tener este aspecto:
$$\tilde{X}_i = (X_i - \bar{X})\frac{\sigma_X}{s_X} + \mu_X$$
donde $s_X$ y $\sigma_X$ son la desviación estándar de la muestra y de la distribución, respectivamente. Esta transformación introduce en realidad algunos sesgos, que conducen a estimadores sesgados de cualquier opción que se intente valorar. Pero estos son, según los expertos, normalmente muy pequeños, por lo que no debería haber problemas. Además, el sesgo desaparece al aumentar el tamaño de la muestra.
Puedes pensar en esta técnica como un tipo especial de Variante de Control. Una variante de control funciona utilizando otro proceso $Y_i$ para sustituir las muestras $X_i$ por:
$$\tilde{X}_i=X_i - b (Y_i - \mu_Y)$$
donde $b$ es óptimo al ponerlo en $Cov[X,Y]/Var[X]$ . La similitud debería ser evidente. Tenga en cuenta que al ajustar tanto la media como la varianza está utilizando esencialmente dos variantes de control, por lo que es algo que definitivamente vale la pena considerar.
Por último, la desventaja es que todavía necesita saber cuál es la media y la varianza reales del proceso; potencialmente también las covarianzas si está tratando con múltiples procesos. Esto puede requerir una gran cantidad de cálculos matemáticos (pero espero que alguien lo haya hecho por usted). Los momentos de orden superior son aún más difíciles de obtener.
Otro problema es que estas transformaciones suelen introducir una dependencia entre las muestras. Como resultado, ya no se pueden utilizar las reglas habituales para la construcción de intervalos de confianza, ya que esto se basa en muestras independientes. Esto es un problema para cosas como los niveles de confianza de sus estimaciones. Puede evitarlo parcialmente creando diferentes lotes de muestras y aplicando la coincidencia de momentos a los lotes individuales. De nuevo, esto supone una mayor sobrecarga para una ganancia quizás insignificante.
Por último, Boyle, Broadie y Glasserman demostraron que si se dispone de un momento, suele ser mejor utilizarlo como variante de control en lugar de utilizarlo como ajuste de momentos (es decir, se puede obtener una mayor reducción de la varianza de esta forma). La razón es que el ajuste de momentos es esencialmente una forma de utilizar una variante de control, pero con un coeficiente subóptimo $b$ . Su prueba se encuentra en el apéndice de este documento .