Creo que lo más cercano a una "analítica" de respuesta (y no me refiero en términos de la precisión, pero en el sentido de que se puede resolver mediante el uso de lápiz y papel en lugar de un ordenador) sería el uso de linealización. Considerar $g(X_1,X_2)=e^{X_1}+e^{X_2}$, nos gustaría calcular $VaR_\alpha(g(X_1,X_2))$.
Linealización de $g$ da:$$g(X_1,X_2)\aprox g(\mathbf{\mu}) + \nabla g^T(\mu)(\mathbf{X}-\mathbf{\mu})$$
Así pues, tenemos que $$VaR_\alpha(g(X_1,X_2)) \aprox VaR_\alpha(g(\mathbf{\mu}) + \nabla g^T(\mu)(\mathbf{X}-\mathbf{\mu})) = VaR_\alpha(\nabla g^T(\mu)(\mathbf{X}-\mathbf{\mu})) - g(\mathbf{\mu})$$
Donde la última igualdad se mantiene debido a la traducción de la invariancia de valor-en-riesgo. Ahora tenemos que $$\nabla g^T(\mu)(\mathbf{X}-\mathbf{\mu})= e^{\mu_1}(X_1-\mu_1) + e^{\mu_2}(X_2-\mu_2) = e^{\mu_1}X_1+e^{\mu_2}X_2 -\mu_1e^{\mu_1} - \mu_2e^{\mu_2}$$
Una vez más podemos mover a cabo las constantes debido a la traducción de la invariancia de valor-en-riesgo. (Tenga en cuenta que me salte la tasa libre de riesgo).
Ahora tenemos $$VaR_\alpha(g(X_1,X_2)) \aprox VaR_\alpha(e^{\mu_1}X_1+e^{\mu_2}X_2)+e^{\mu_1} + e^{\mu_2} -\mu_1e^{\mu_1} - \mu_2e^{\mu_2}$$
Desde $X_1,X_2$ están normalmente distribuidas, de modo que su suma sea. A partir de entonces su justo sencillos cálculos.
Vale la pena destacar es que la aproximación lineal sólo funciona bien cuando la probabilidad de masa centrada en torno a la media, es decir, si las colas son la luz y la variación es pequeña. Resulta particularmente preocupante ya que en el "valor en riesgo" estamos evaluando las probabilidades de salir mucho en la cola.