6 votos

Definición de ortogonalidad e independencia para un proceso estocástico

Por alguna razón no encuentro en ningún sitio la definición explícita de cuándo se supone que dos procesos son ortogonales o independientes. Creo que ortogonalidad e independencia deberían significar lo mismo en este contexto.

Hasta ahora siempre suponía que la independencia/ortogonalidad de dos procesos wiener significaba $ dW_i(t) dW_j(t) = \delta_{ij} dt $ O en una notación diferente $[W_i,W_j]_t=\delta_{ij}t$ . Lamentablemente, esto es sólo una consecuencia de la independencia, no la definición real.

De ahí las preguntas:

  • ¿son equivalentes la independencia y la ortogonalidad para un proceso estocástico?
  • ¿cuál es la métrica y el espacio utilizados para definir la ortogonalidad de los procesos estocásticos?

5voto

Brian Gianforcaro Puntos 11985

La ortogonalidad y la independencia son conceptos diferentes. Los conceptos son los mismos para los procesos de Wiener, ya que en el contexto de las variables aleatorias normales, la independencia es equivalente a la ortogonalidad (es decir, la falta de correlación)

La independencia es la definición estándar de la probabilidad. Sea $\mathcal{F}, \mathcal{G}$ sean las álgebras sigma generadas por dos procesos, $X_\cdot, Y_\cdot$ . Entonces $X$ y $Y$ son independientes si $\mathcal{F}, \mathcal{G}$ son.

Para la ortogonalidad, la condición sólo se define en realidad para cosas similares a las martingalas continuas cuadradas integrables. Por similares, quiero decir que las cosas pueden extenderse a procesos que son localmente cuadrados integrables, localmente martingales, tienen discontinuidades, semimartingales. Pero, para $X$ y $Y$ martingalas continuas cuadradas integrables, entonces $X$ es ortogonal a $Y$ si $XY$ es una martingala.

Una buena referencia para este tema es el libro de Protter. Puedo buscar la sección exacta si te interesa.

editar En respuesta a las preguntas del Probilitador:

Independencia para vectores aleatorios: Sea $\Omega, \mathcal{H}, \mu$ sea un espacio de probabilidad, en el que $(X_i)$ y $(Y_i)$ están definidos. $X_i$ es un mapa medible de $\Omega$ a $\mathbb{R}$ por lo que induce un álgebra subsigma $\mathcal{F}_i \subset \mathcal{H}$ . A continuación, puede tomar $\mathcal{F}$ como el álgebra sigma generada por el $\mathcal{F}_i$ . También puede obtener $\mathcal{G}$ de la $Y_i$ .

También se puede partir del punto de vista de un mapeo en $\mathbb{R}^n$ .

Como álgebras sigma, $\mathcal{F} \perp \mathcal{G}$ si para cualquier $A \in \mathcal{F}, B \in \mathcal{G}$ , $\mu(A \cap B) = \mu(A) \cdot \mu(B)$ .

A continuación, para la afirmación sobre las variables aleatorias normales, si $X,Y$ son conjuntamente normales y no están correlacionadas, se calcula la función $f(s,t) = E \left[ \exp(sX + tY) \right]$ . Puedes evaluar esto exactamente usando una integral de Riemann de manos desnudas de la densidad normal. Entonces se demuestra que $f$ pueden ser factorizados en funciones de $s$ y $t$ que es la caracterización equivalente de la independencia.

Finanhelp.com

FinanHelp es una comunidad para personas con conocimientos de economía y finanzas, o quiere aprender. Puedes hacer tus propias preguntas o resolver las de los demás.

Powered by:

X