4 votos

suave vs duro más arriba en la cartera de optimizaciones

Considere dos muestras de la cartera de optimizaciones:

Optimización de 1:
$\begin{matriz} \\ \min \frac{1}{2} w'\Sigma w \\ w'\mu = r \\ Aw = 0 \\ w_l \le w \le w_u \end{matriz}$

Optimización 2:
$\begin{matriz} \\ \min \frac{1}{2} w'\Sigma w - \lambda_1 (w'\mu - r)^2 - \lambda_2 w'(A)w \\ w_l \le w \le w_u \end{matriz}$

En ambos casos (donde sea aplicable):
$\begin{matriz} \\ w, w_l, w_u \in \mathbb{R}^{N\times 1} \\ \Sigma \in \mathbb{R}^{N \times N} \\ A \in \mathbb{R}^{m \times N} \\ r \lambda_1, \lambda_2 \in \mathbb{R}^{1 \1} \end{matriz}$

Donde $N$ es el número de instrumentos y $m$ es el número de restricciones

Pregunta - Calibración de $\lambda_1$ y $\lambda_2$

  1. En la primera de Optimización, que utiliza duro limitaciones, no tenemos que calibrar cualquier $\lambda_1$, $\lambda_2$, sin embargo, existe la posibilidad de que la optimización no es factible, o las restricciones son demasiado vinculante (lo que provoca la respuesta óptima a ser muy pobres en comparación con prácticamente deseado carteras)

  2. En el segundo de Optimización, el suave restricciones pueden asegurar la optimización es factible, y las limitaciones son también no demasiado vinculante si es necesario, pero no está claro cómo calibrar o conjunto de valores razonables de $\lambda_1$ o $\lambda_2$ así que hay un equilibrio entre el objetivo original de la función $w'\Sigma w$ y las sanciones? Ejemplo, en este caso, demasiado pequeños valores de $\lambda_1$ y $\lambda_2$ hará la función objetivo equivalente a $w'\Sigma w$, y demasiado grandes valores de ignorar el original de la función objetivo por completo.

Tiene este tipo de problema ha estudiado antes?

¿Este tipo de problema tiene un nombre?

Hay algún documento o trabajo académico relacionado con esto?

Cualquier trabajo que se evalúan los pros y los contras en más detalle?

2voto

YviDe Puntos 18

Los dos problemas están muy relacionados. Tal vez Boyd y Vandenberghe Capítulo 5 en el Lagrangiano de la dualidad.

Deje que $\mathcal{W} = \left\{ \mathbf{w}: \mathbf{w}_l \leq \mathbf{w} \leq \mathbf{w}_u \right\}$

Optimización de 1:
\begin{ecuación} \begin{array}{*2{>{\displaystyle}r}} \mbox{minimizar (más de $\mathbf{w}$)} & \frac{1}{2} \mathbf{w}'\Sigma\mathbf{w} \\ \mbox{objeto} & \mathbf{w}'\boldsymbol{\mu} = r \\ & A \mathbf{w} = \mathbf{0} \\ & \mathbf{w} \in \mathcal{W} \end{array} \end{ecuación}

Permítanme definir un problema de optimización 2b (similar a tu problema de optimización 2) a los que más se asemejan Lagrangiano de la dualidad.

Optimización 2b:
\begin{ecuación} \begin{array}{*2{>{\displaystyle}r}} \mbox{minimizar (más de $\mathbf{w}$)} & \frac{1}{2} \mathbf{w}'\Sigma\mathbf{w} + \lambda \left( \mathbf{w}'\boldsymbol{\mu} - r \derecho) + \mathbf{v}' A \mathbf{w} \\ \mbox{objeto} & \mathbf{w} \in \mathcal{W} \end{array} \end{ecuación}

Lagrangiano de la dualidad

Problema 1 problema y 2b están muy relacionadas con los problemas. Definir el Lagragian función como:

$$ \mathcal{L}\left(\mathbf{w}, \lambda \mathbf{v} \right) = \frac{1}{2} \mathbf{w}'\Sigma\mathbf{w} + \lambda \left( \mathbf{w}'\boldsymbol{\mu} - r \derecho) + \mathbf{v}' A \mathbf{w} $$

donde escalar $\lambda$ y el vector $\mathbf{v}$ son multiplicadores de Lagrange.

Su problema de optimización 1 es: $$\min_{\mathbf{w} \in \mathcal{W}} \max_{\lambda \mathbf{v}} \mathcal{L}(\mathbf{w}, \lambda \mathbf{v}) $$.

Min-max interpretación: en Primer lugar, recoger $\mathbf{w}$ (para minimizar el objetivo), y luego (después de la observación de su elección) puedo llegar a recoger las sanciones $\lambda$ y $\mathbf{v}$ para maximizar el objetivo. Si usted viola las restricciones, se puede elegir arbitrariamente grandes penalidades por lo que el objetivo es de $\infty$!

Este es un problema convexo. Si, además, el conjunto factible tiene un no-vacío relativa interior, a continuación, Slater condición sostiene y, a continuación, la dualidad de la brecha es cero. Entonces tenemos: $$\min_{\mathbf{w} \in \mathcal{W}} \max_{\lambda \mathbf{v}} \mathcal{L}(\mathbf{w}, \lambda \mathbf{v}) = \max_{\lambda \mathbf{v}}\min_{\mathbf{w} \in \mathcal{W}} \mathcal{L}(\mathbf{w}, \lambda \mathbf{v}) $$.

Interpretación: Si la dualidad de la brecha es cero (es decir, el punto de silla de la propiedad), el orden no importa! El máximo de la min es el mismo que el min de la max. El problema primal (el lado izquierdo) es el mismo que el dual del problema (en el lado derecho).

Definir el Lagrangiano de doble función como:

$$ g(\lambda \mathbf{v}) = \min_{w \in \mathcal{W}} \mathcal{L}(\mathbf{w}, \lambda \mathbf{v}) $$

Tenga en cuenta que la doble función es el valor obtenido de la solución de problema de optimización 2b. El dual de un problema conocido como:

$$ \max_{\lambda \mathbf{v}} g(\lambda \mathbf{v}) $$

Resumen

Definir el Lagrangiano de doble función $g(\lambda \mathbf{v}$) como el valor obtenido de la solución de problema de optimización 2b. Si Slater condición se mantiene, entonces su problema de optimización 1 es equivalente al problema doble $\max_{\lambda \mathbf{v}} g( \lambda \mathbf{v})$.

Existe un $\lambda^*$ y $\mathbf{v}^*$ tal que para solucionar el problema 2b da la misma respuesta que el problema 1.

Tal vez el verdadero problema (como entro en los comentarios) es cuidadosamente en la definición de su problema. Si las restricciones son realmente las restricciones duras, entonces usted no puede violar les período. Fin de la historia. Donde parecen estar pasando es que aunque tal vez algunas de estas limitaciones son más objetivos que los requisitos. Qué pena, a continuación, por violar estas restricciones blandas? Yo no sé?

Referencias

Boyd, Stephen y Lieven Vandenberghe, Optimización Convexa, 2004

Rockafellar, R. T., Conjugar la Dualidad y la Optimizaciónde 1974

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X