1 votos

¿Por qué se utiliza el error estándar para mostrar el efecto de la diversificación para el riesgo no sistemático?

Un texto bastante largo, lo siento: Mientras leía un libro de texto de finanzas corporativas, me encontré con una sección que describe el efecto de la diversificación, así como el riesgo sistemático y no sistemático. El libro proporciona un ejemplo para mostrar el efecto de la diversificación:

Una ciudad en la que hay un 1% de posibilidades de que roben en una casa y un 1% de posibilidades de que la ciudad sufra un terremoto. Una compañía de seguros contrata 100.000 pólizas de seguro contra robos y 100.000 pólizas de seguro contra terremotos. Es de esperar que se roben 0,01100.000=1.000 casas al año.

El libro de texto cuantifica la diferencia de diversificación mediante la desviación estándar del porcentaje de pérdidas (suponiendo un 1% de probabilidad de que una casa sea robada y un 1% de probabilidad de que ocurra un terremoto). Al final del año, los daños se producen (100%) o no se producen (0%).

En primer lugar, la desviación estándar de una reclamación de propietario se calcula:

Desviación típica_propietario de vivienda (seguro de robo) = (0,99*(0-0,01)^2+0,01*(1-0,01)^2) =9,95%

Desviación estándar_propietario de vivienda (seguro contra terremotos) = (0,99*(0-0,01)^2+0,01*(1-0,01)^2) =9,95%

Me parece difícil interpretar la desviación estándar en este contexto, yo me quedaría con: La probabilidad de que mi casa sea robada o afectada por un terremoto es del 1%. Así que, de media, de cada 100 robos/sismos mi casa se verá afectada una vez, ¿no? La DS me dice que, de media, la probabilidad de que mi casa sea robada o golpeada por un terremoto fluctúa en torno al 9,95%. Pero esta interpretación no tiene sentido para mí, ya que la probabilidad 1%-9,95%=-8,95% sería negativa.

En un siguiente paso, el riesgo para el seguro de la empresa.

El libro dice: En el caso del seguro de terremoto, como el riesgo es común, el porcentaje de siniestralidad es del 100% o del 0%, igual que en el caso del propietario.

Sin embargo, para calcular la desviación típica, por ejemplo el riesgo de un seguro de robo, está escrito que "cuando los riesgos son independientes e idénticos, la desviación típica de la media se llama error típico". No entiendo por qué en el caso del seguro de robo, desde la perspectiva del seguro, se calcula de repente el error estándar para cuantificar el riesgo de la compañía de seguros.

TL;DR: ¿Por qué se utiliza el error estándar para mostrar el efecto de diversificación para el riesgo no sistemático?

Muchas gracias

1voto

Akash Puntos 8

OK, respuesta corta, piénsalo así. Para una explicación más formal, busca en Google la distinción entre lo que los estadísticos llaman "intervalo de confianza" y "intervalo de predicción".

Imaginemos que 1 de cada 10.000 personas contrae cada año el "síndrome de Jumping Jack Flash". Una aseguradora vende un seguro contra esto con una indemnización de 1 millón. El precio justo de ese seguro sería de 100. La aseguradora obtiene, por ejemplo, un ratio combinado del 5% (es decir, un margen de beneficio) en su póliza, por lo que yo pago 105. Así que tengo un pago con una pérdida media de 5 cada año (su margen) y una desviación estándar de 10.000. Pero estoy cubierto para la catástrofe, sin que ello suponga un coste notable para mi capacidad de prosperar sin conseguirlo.

El riesgo para la aseguradora es un poco diferente. Les es indiferente que yo o cualquier otro de sus clientes reciba el JJFS. Simplemente no quieren que yo y ellos lo consigamos juntos. Quieren estar seguros de que es 1 entre 10.000, no 1 entre 9.000. Más bien les importa la incertidumbre en torno a esa estimación de la frecuencia de 1 entre 10000. Que es exactamente el error "sistemático" frente al "idiosincrático" que menciona el libro de texto, y sobre el que preguntaste.

Si la proporción de 1 entre 10.000 es correcta, a la aseguradora le encantaría duplicar el tamaño de su cartera de seguros y duplicar sus beneficios (al menos a largo plazo). Pero si fuera 1 de cada 5.000, duplicar la cartera supondría pérdidas más rápidas y mayores, y una posible insolvencia.

E incluso si el riesgo de 1 entre 10.000 fuera correcto, podría resultar improbable. Duplicar los casos normales en cualquier año podría acabar con la rentabilidad agregada de ese producto durante décadas. Por tanto, el riesgo para la aseguradora no es la volatilidad del pago para usted, sino la volatilidad de sus pagos para usted y el otro millón de clientes. Es decir, el "error estándar" en torno a la tasa de pago del 0,01%.

Así que pagas 105, esperas perder una media de 5, para obtener 1.000.000 dado JJFS, lo que te da un riesgo de seguro (desviación estándar) de ~10.000.

La aseguradora tiene un millón de clientes como usted. Su riesgo por contrato es el mismo 10.000 por contrato dividido por root de un millón de contratos, es decir, 10 por contrato (por 5 de ganancia esperada). O los mismos 10.000 por contrato divididos por root de un millón de contratos es igual a 10 millones en total (para 5 millones de ganancia esperada). En cualquier caso, están obteniendo un beneficio esperado de X corriendo un riesgo 2X (normalizado), lo que equivale a un ratio de Sharpe de 0,5 (sólo en esa póliza).

Y entonces la aseguradora espera que su libro JJFS no esté correlacionado con sus libros de riesgo "Eleanor Rigby Syndrome", "Twisted Firestarter" y "Buffalo Soldier". Si los 4 estuvieran descorrelacionados, entonces estarían obteniendo 1 retorno por 1 vol. Etc. Etc...

Espero que esto se aclare.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X