Depende de su (supuesto) proceso de generación de datos subyacente.
En general, los mínimos cuadrados ponderados (WLS) pueden utilizarse cuando los datos son heteroscedásticos pero no están correlacionados.
Supongamos un modelo lineal
$$Y_i = \beta_0 + \beta_1 X_i + \epsilon_i \tag{1}$$
Si asume $var(\epsilon_i) = \sigma^2$ es decir, los términos de error son homocedasticos, OLS es el mejor estimador lineal insesgado (BLUE). Sin embargo, si se permite que los errores sean heteroscedásticos, tenemos $var(\epsilon_i) = \sigma_i^2$ por lo que la varianza de los residuos depende de la observación específica. Sin embargo, se puede reescribir este último modelo como:
$$var(\epsilon_i) = \sigma_i^2 = \sigma^2 \cdot d_i \tag{2}$$
por lo que se puede tener en cuenta la heteroscedasticidad asumiendo una varianza de error constante global (al igual que OLS), pero ponderando cada término de error con un factor $d_i$ . Si se divide $\epsilon_i$ por $d_i$ como en $\theta_i = \frac{\epsilon_i}{\sqrt{d_i}}$ se obtiene
$$var(\theta_i) = var \left( \frac{\epsilon_i}{\sqrt{d_i}} \right)= \frac{\sigma_i^2}{d_i} = \sigma^2 = const \tag{3}$$
lo que hace que OLS sea aplicable de nuevo. De hecho, asumiendo (2), WLS es simplemente OLS con un modelo transformado al dividir cualquier observación por $\sqrt(d_i)$ .
Entonces, ¿cómo es la ponderación subyacente $w_i$ para cualquier observación $x_i$ en el algoritmo de mínimos cuadrados? En el caso de OLS, tenemos $w_i \propto X_i$ mientras que en WLS, el peso de cada observación es proporcional a $X_i / \sqrt{d_i}$ .
En resumen, para $d_i$ como la capitalización de mercado de una empresa, si se asume para la varianza residual que $var(\sigma_i^2) = \sigma^2 \cdot d_i$ es decir, la varianza del error es proporcional a la capitalización del mercado, hay que ponderar cada observación $X_i$ con $\sqrt{d_i}$ .