2 votos

Martingala, caminata aleatoria y expectativas racionales

¿Cuál es la conexión entre estos conceptos?

Por ejemplo, tomemos un proceso $ Z_n $ que sigue un paseo aleatorio, yo diría que:

  1. Esto es un martingala, porque mis expectativas de mañana, es decir n+1, dependen solo de hoy
  2. Si asumimos a un individuo con expectativas racionales, él asumirá que el pronóstico de mañana es hoy

Entonces, ¿en otras palabras, el pronóstico de un individuo racional sigue un martingala?

No estoy seguro de la diferencia, ya que un concepto se usa en finanzas mientras que el otro en economía, pero me parecen básicamente iguales.

Por último, he visto en el ejemplo que un paseo aleatorio implica un martingala, ¿esto siempre es cierto? ¿Implica un martingala un paseo aleatorio?

0 votos

¿Es la pregunta si el pronóstico racional de un paseo aleatorio es una martingala? ¿O si todo pronóstico racional tiene que ser un paseo aleatorio?

0 votos

Más como el primero. El segundo está algo implícito en la segunda parte de mis preguntas, pero puedes tratarlo como algo separado.

1 votos

Para agregar a 1) Todas las cadenas de Markov son martingalas (aunque también hay martingalas no markovianas), ya que los paseos aleatorios son un caso especial de cadenas de Markov, entonces sí, como piensas, son martingalas. Pero no sé acerca de 2.

6voto

Bernard Puntos 10700

Todos los conceptos se utilizan en Economía. Definiciones (no declaradas de una manera completamente rigurosa):

Martingala : Un proceso estocástico $\{X_t\}$ se llama "martingala" si y solo si se cumple que

$$E(X_{t+1} \mid X_t,X_{t-1},...) = X_t \tag{1}$$

Existen extensiones como "sub-martingala", "super-martingala" pero la definición básica es la anterior

Caminata aleatoria : Un proceso estocástico $\{X_t\}$ se llama "caminata aleatoria" si y solo si

$$X_{t+1} = X_t + u_{t+1}, \;\;\;u_t \sim \text{Ruido Blanco} \tag{2}$$

y puede buscar la definición de "Ruido Blanco".

Aquí también hay ramificaciones ("caminata aleatoria con deriva" etc).

Comentario: se sigue que una caminata aleatoria es (un ejemplo de) una martingala, pero una martingala no implica una caminata aleatoria, siendo esta última un concepto mucho más amplio.

Expectativas racionales : Originalmente, la Hipótesis de Expectativas Racionales afirmaba que la expectativa agregada sobre algún valor desconocido (generalmente futuro) de una variable aleatoria agregada (ver también esta publicación sobre el tema), es igual a la expectativa condicionada (en el sentido matemático riguroso) de esta variable "dado toda la información relevante en el momento de formar la expectativa

$$X^e_{t+k|t} = E(X_{t+k}\mid I_t) \tag{3}$$

Comentario: note que el conjunto de condicionamiento en el caso de una martingala contiene solo valores pasados del proceso. El conjunto de condicionamiento en el caso de la HER contiene "todo lo que está disponible y se considera relevante".

En un modelo de agente representativo, estamos obligados, por consistencia metodológica interna, a aplicar la Hipótesis de Expectativas Racionales a nivel individual (algo que ha suscitado todo tipo de objeciones válidas en cuanto a la disponibilidad de información y las limitaciones de procesamiento de la información de un individuo).

¿Entonces las previsiones de un individuo siguen una martingala? Examinémoslo solo para previsiones a un paso adelante: nuestro proceso estocástico es

$$\{X^e_{t+1|t},\,X^e_{t+2|t+1},...\} = \{E(X_{t+1}\mid I_t),\,E(X_{t+2}\mid I_{t+1}),...\} \tag{4}$$

Para que se cumpla la propiedad de martingala, debe sostenerse que

$$E[X^e_{t+1|t} \mid X^e_{t|t-1}, X^e_{t-1|t-2},...] = ?\; X^e_{t|t-1} \tag{5}$$ (Nombraré al final qué expectativas describe la ecuación $(5)$)

$$E[X^e_{t+1|t} \mid X^e_{t|t-1}, X^e_{t-1|t-2},...] = E[E(X_{t+1}\mid I_t) \mid \{E(X_{t}\mid I_{t-1}), E(X_{t-1}\mid I_{t-2}),...\}]$$

Como ya se ha comentado, el conjunto de condicionamiento exterior es más pequeño que el conjunto de condicionamiento interior. Mediante la Ley de las Expectativas Iteradas (la propiedad de Torre) de la Expectativa Condicional, obtenemos entonces

$$E[E(X_{t+1}\mid I_t) \mid \{E(X_{t}\mid I_{t-1}), E(X_{t-1}\mid I_{t-2}),...\}] = E[X_{t+1} \mid \{E(X_{t}\mid I_{t-1}), E(X_{t-1}\mid I_{t-2}),...\}] \tag{6}$$

El lado derecho de $(6)$ no necesariamente es igual al lado derecho de $(5)$, por lo que no podemos decir que el proceso estocástico de previsiones a un paso adelante bajo la Hipótesis de Expectativas Racionales es una martingala.

La ecuación $(5)$ describe la siguiente situación: estando en el período $t-1$ formamos la expectativa $X^e_{t|t-1}$, y "lo mejor que podemos decir" (mejor en el sentido del error cuadrático medio) sobre nuestra expectativa subsecuente $X^e_{t+1|t}$ es que será igual a $X^e_{t|t-1}$. Esto a veces se llama "expectativas estáticas", pero cuidado porque el término tiene dos significados totalmente diferentes en la literatura: para algunos autores, la ecuación $(5)$ representa expectativas "estáticas" en el sentido de que la expectativa en sí misma permanece (o se espera que permanezca) invariable en valor. Pero a menudo encontrarás autores que escriben el término "expectativas estáticas" y significan algo totalmente diferente, a saber, $E(X_{t+1}\mid I_t) = X_t$ ("lo que es, será"). A su vez, parece tener la propiedad de martingala, pero en el mejor de los casos es un concepto extendido de ella (porque el conjunto de condicionamiento es más grande), y en cualquier caso es una propiedad similar a una martingala en lo que respecta al proceso real $\{X_t\}$, y no al proceso de previsiones $\{X^e_{t+1|t}\}$.

1voto

Lucas Puntos 128

Martingale es un término muy amplio, a veces simplemente significa "el futuro es independiente condicionado al presente". Por supuesto, cualquier caminata aleatoria tiene esta propiedad. Lo mismo ocurre con las cadenas de Markov.

Además, "martingala" generalmente se refiere a una variable aleatoria con valores reales que cambia con el tiempo, pero cuya esperanza siempre es igual a su valor actual. Una caminata aleatoria sin sesgo también cumple con esto porque, dado que la ubicación actual de la caminata aleatoria es $x$, la ubicación esperada después de $50$ pasos sigue siendo $x$. Es difícil ver cómo una cadena de Markov se relaciona con esta propiedad en general porque su espacio de estados podría no ser los números reales.

La idea de la martingala de Doob es que estos dos casos son casi iguales: cada vez que tienes una estructura tipo cadena de Markov donde el futuro es independiente condicionado al presente, y tienes una variable aleatoria con valores reales $X_t$ que está cambiando con el tiempo, puedes construir una nueva variable aleatoria $Y_t = \mathbb{E}[X_T | X_t]$, donde $T$ es el momento en que el proceso se detiene. Ahora, por independencia condicional, $Y_t$ es una martingala.

Finalmente, la expectativa de una variable aleatoria de un agente bayesiano es una martingala, ya que reciben nueva información con el tiempo. Para ver esto, considera un proceso de dos etapas: El agente comienza con una distribución previa solo en $Z$, luego recibe una señal $A$ y actualiza a una posterior en $Z$. Naturalmente, la posterior será $\mathbb{E}[ Z \mid A]$. Pero la previa será simplemente $\mathbb{E} Z$, y la ley de la esperanza iterada dice que $$ \mathbb{E}_A\left[ \mathbb{E}_Z [Z \mid A] \right] = \mathbb{E} Z. $$ Puedes ver esto trabajándolo por ti mismo usando la definición de expectativa.

0 votos

Un proceso de Markov no necesita ser una martingala.

0 votos

@Michael, correct.

0 votos

Disculpa si encontraste confusa mi primera línea - solo estoy diciendo que, en la práctica, la gente a menudo es imprecisa con la terminología y usa el término martingala para aplicarlo a cualquier situación con propiedades similares a las de un proceso de Markov, a menudo porque en estas situaciones se construye una martingala natural como explico a continuación.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X