Estoy trabajando con el muestreo de importancia para el monte carlo de mínimos cuadrados y ahora tengo problemas para entender la implementación del algoritmo Robbins-Monro para encontrar el deriva óptima para encontrar la varianza mínima de mi estimación. La formulación original del problema que ahora se responde es la siguiente aquí .
El artículo que estoy siguiendo para el algoritmo Robbins-Monro es este enlace
El problema que quiero resolver es encontrar una deriva óptima $\theta^*$ resolviendo:
$H(\theta^*)=\min_{\theta}H(\theta)$
Dónde $H(\theta)=\mathbb{E}\left[ G^2(Z)e^{-\theta Z+\frac{1}{2}\theta^2}\right]$ el segundo momento de la función de recompensa $G(Z)=\max(K-S(t),0)$ . En efecto, lo hemos hecho: $\nabla H(\theta)=0$
Ahora, siguiendo el algoritmo de Morris monro en el enlace, la formulación general del algoritmo estocástico se da en la ecuación (10) y está dada por:
$X_{n+1}=X_n-\gamma_{n+1}F(X_n,Z_{n+1})$
y siguiendo con la ecuación (15) tenemos el segundo momento (el gradiente de $H(\theta)$ ) dada por:
$h(\theta)=\nabla H(\theta)=\mathbb{E}\left[(\theta-Z)G^2(Z)e^{-\theta Z+\frac{1}{2}\theta^2}\right]$ .
Ahora me pregunto, ya que no conozco el segundo momento, ¿cómo debo aproximarlo numéricamente para evaluar el algoritmo? Dado en el artículo, no explican realmente cómo se encuentra el segundo momento?
Agradezco la ayuda. Gracias.