Algo que tal vez se dan cuenta es que tus dos problemas no pueden ser tan diferentes como crees que si $\lambda$ es un ad-hoc parámetro.
Para cualquier solución a su 2do problema (donde $\theta > 1$), existe un $\lambda$ para el problema 1, que le da la misma solución que el problema (2).
Ejemplo
Deje que $f$ y $g$ ser de las funciones convexas y dejar que $\mathbf{x}$ denotar un vector. Para construir algunas intuición, considere los dos problemas (versiones estilizadas de su problema 1 y 2 del problema).
Problema:
\begin{ecuación}
\begin{array}{*2{>{\displaystyle}r}}
\mbox{minimizar (más de $\mathbf{x}$)} y f(\mathbf{x}) + \lambda_1g(\mathbf{x}) \end{array}
\end{ecuación}
Problema B:
Deje que $h(x)$ ser convexa y no decreciente en el intervalo de $g$, por lo tanto la composición de la $h(g(\mathbf{x}))$ también es convexo. Considere la posibilidad de
\begin{ecuación}
\begin{array}{*2{>{\displaystyle}r}}
\mbox{minimizar (más de $\mathbf{x}$)} y f(\mathbf{x}) + \lambda_2 h\left( g(\mathbf{x}) \derecho) \end{array}
\end{ecuación}
Las condiciones de primer orden
Ambos son problemas de optimización convexa y la primera orden condiciones son necesarias y suficientes.
- La condición de primer orden para el problema de la Un es $\frac{\partial f}{\partial \mathbf{x}} + \lambda_1 \frac{\partial g}{\partial \mathbf{x}} = 0$.
- La condición de primer orden para el problema de B es de $\frac{\partial f}{\partial \mathbf{x}} + \lambda_2 h'(g(\mathbf{x}))\frac{\partial g}{\partial \mathbf{x}} = 0$.
Deje que $\mathbf{x}^*$ ser la solución a Un problema o problema B. Si $\lambda_1 = \lambda_2 h'(g(\mathbf{x}^*))$, entonces el problema Un problema y B tienen la misma solución.
La multa es de $h(x) = x^\theta$ (que es convexo y el aumento en la región de $x >0$ si $\theta > 1$). Observe $h'(x) = \theta x^{\theta - 1}$. Observe también que para lograr la solución del mismo $\mathbf{x}^*$, usted podría tener $\lambda_1 > \lambda_2$ o $\lambda_1 < \lambda_2$ dependiendo de la parametrización. Como usted ha formulado el problema, el aumento de $\theta$ no necesariamente aumentar la sanción de mayor riesgo (donde se define el riesgo como la desviación estándar de los retornos)! Por ejemplo, digamos que su solución $\mathbf{x}^*$ para $\theta = 1$ da una desviación estándar de los rendimientos de .01. El simple aumento de $\theta$ a $1000$ aumentaría la convexidad de la multa de riesgo, pero podría disminuir el nivel de la pena de numérico a la irrelevancia.
Su $g(\mathbf{x}) = \sqrt{\mathbf{x}'\Sigma \mathbf{x}}$, donde $\Sigma$ es la matriz de covarianza de los rendimientos.