1 votos

Juegos repetidos con rendimientos marginales decrecientes

El análisis estándar de los juegos repetidos asume que el pago de un jugador de un juego repetido es una suma (o media aritmética, o suma descontada) de los pagos en los juegos básicos.

¿Pero qué pasa si los jugadores tienen rendimientos marginales decrecientes?

Por ejemplo, supongamos que el juego básico es Coincidencia de centavos . En cada juego básico, un jugador puede ganar 1 o perder 1. Sin embargo, la utilidad media de un jugador por ganar, por ejemplo, 10 veces, es no 1 - puede ser inferior a 1 si el jugador tiene rendimientos marginales decrecientes.

¿Existen referencias que traten de estos juegos repetidos?

1voto

Alexandros B Puntos 131

Me parece que esto no supondrá ninguna diferencia si sólo se tienen en cuenta las estrategias puras. Considere que el jugador $i$ de las ganancias es $x$ y de esto obtiene utilidad $U_i(x)$ . Mientras $U_i()$ está aumentando en $x$ jugador $i$ preferirá los resultados con mayores ganancias a los menores, que es exactamente lo que haría si tuviera rendimientos marginales constantes.

Otra forma de formar este argumento es que mientras $U_i()$ es creciente otra función de utilidad que representa las mismas preferencias sobre los resultados sería $\hat{U}_i(x) = x$ . (Se puede realizar una transformación monótona que transfiera $U_i()$ a esto).

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X