Podría usar el método $\delta$ para obtener la desviación estándar.
Sean $X_0$ y $X_1$ las variables aleatorias que denotan ingresos en los períodos $0$ y período $1$. Defina $Y_0 = X_0 \ln(X_0)$ y $Y_1 = X_1 \ln(X_1)$.
Sean $\mu_0 = \mathbb{E}X_0$, $\mu_1 = \mathbb{E} X_1$, $\nu_0 = \mathbb{E}Y_0$ y $\nu_1 = \mathbb{E}Y_1$.
El índice de Theil en los períodos 0 y 1 se da por: $$ T(\mu_0, \nu_0) = \frac{\nu_0}{\mu_0} - \ln(\mu_0) \text{ y } T(\mu_1, \nu_1) = \frac{\nu_1}{\mu_1} - \ln(\mu_1). $$
Dadas dos muestras finitas e independientes $\{x_{0,1},\ldots, x_{0,N_0}\}$ y $\{x_{1,1},\ldots, x_{1,N_1}\}$ de niveles de ingresos de los períodos 0 y 1, podemos construir $y_{0,i} = x_{0,i} \ln(x_{0,i})$ y $y_{1,i} = x_{1,i} \ln(x_{(1,i)})$ y los análogos de muestra finita: $$ \hat \mu_i = \frac{1}{N_i} \sum_{j=1}^{N_i} x_{i,j} \text{ y } \hat \nu_i = \frac{1}{N_i} \sum_{j=1}^{N_i} y_{i,j}. $$
Por el teorema del límite central: $$ \begin{align*} \sqrt{N_0} \begin{pmatrix} \hat \mu_0 - \mu_0\\ \hat \nu_0 - \nu_0,\\ \end{pmatrix} \sim^a {\cal N}(0, \Sigma_0)\\ \sqrt{N_1} \begin{pmatrix} \hat \mu_1 - \mu_1\\ \hat \nu_1 - \nu_1 \end{pmatrix} \sim^a {\cal N}(0, \Sigma_1) \end{align*} $$
Donde $\Sigma_i$ es la matriz de varianza-covarianza, $$ \Sigma_i = \begin{bmatrix} \sigma^2_{\mu_i} & \sigma_{\mu_i, \nu_i}\\ \sigma_{\mu_i, \nu_i} & \sigma^2_{\nu_i}\end{bmatrix} $$ Podemos estimar esta matriz por $\widehat{\Sigma}_i$ donde: $$ \hat \Sigma_i = \begin{bmatrix} \frac{1}{N_i} \sum_{j = 1}^{N_i} (x_{i,j} - \hat \mu_i)^2 & \frac{1}{N_i} \sum_{j = 1}^{N_i} (x_{i,j} - \hat \mu_i)(y_{i,j} - \hat \nu_i)\\ \frac{1}{N_i}\sum_{j = 1}^{N_i} (x_{i,j} - \hat \mu_i)(y_{i,j} - \hat \nu_i) & \frac{1}{N_i} \sum_{j = 1}^{N_i}(y_{i,j} - \hat \nu_i)^2\end{bmatrix} $$ A continuación, podemos usar el método $\delta$ para derivar la distribución asintótica de $T(\hat \mu_i, \hat \nu_i) = \frac{\hat \nu_i}{\hat \mu_i} - \ln(\hat \mu_i). $
Nota que para $i = 0,1$: $$ \frac{\partial T(\mu, \nu)}{\partial \nu} = \frac{1}{\mu} \text{ y } \frac{\partial T(\mu,\nu)}{\partial \mu} = -\frac{\nu+ \mu}{(\mu)^2}. $$ Consideremos el vector gradiente: $$ \partial T_i = \begin{bmatrix}\dfrac{1}{\mu_i} & -\dfrac{\mu_i + \nu_i}{(\mu_i)^2} \end{bmatrix} $$ con estimador: $$ \partial \widehat{T}_i = \begin{bmatrix} \dfrac{1}{\hat \mu_i} & - \dfrac{\hat \mu_i + \hat \nu_i}{(\hat \mu_i)^2}\end{bmatrix} $$ Luego el método $\delta$ nos da: $$ (T(\hat \mu_i, \hat \nu_i) - T(\mu, \nu)) \sim^a {\cal N}\left(0,\frac{\partial T_i \, \Sigma_i \, (\partial T_i)'}{N_i}\right) $$
La hipótesis nula es $$H_0: \underbrace{T(\mu_0, \nu_0) - T(\mu_1, \nu_1)}_{G T(\mu_0, \nu_0, \mu_1, \nu_1)} = 0. $$
Entonces bajo la hipótesis nula: $$ \begin{align*} (T(\hat \mu_1, \hat \nu_1) - T(\mu_1, \nu_1)) - (T(\hat \mu_0, \hat \nu_0) - T(\mu_0, \nu_0)) =T(\hat \mu_1, \hat \nu_1) - T(\hat \mu_0, \hat \nu_0) \end{align*} $$ Así que bajo la hipótesis nula (si las dos muestras son independientes): $$ T(\hat \mu_1, \nu_1) - T(\hat \mu_0, \nu_0) \sim^a {\cal N}\left(0, \frac{\partial T_1 \, \Sigma_1 \, (\partial T_1)'}{N_1} + \frac{\partial T_0 \, \Sigma_0 \, (\partial T_0)'}{N_0}\right) $$
Usando los estimadores para la varianza, tenemos: $$ \dfrac{T(\hat \mu_1, \nu_1) - T(\hat \mu_0, \nu_0)}{\left(\dfrac{\partial \hat T_1 \, \hat \Sigma_1 \, (\partial \hat T_1)'}{N_1} + \dfrac{\partial \hat T_0 \, \hat \Sigma_0 \, (\partial \hat T_0)}{N_0}\right)^{1/2}} \sim^a {\cal N}(0,1). $$ Puedes usar esta distribución (asintótica) para una prueba de hipótesis para $H_0$.