5.4 Zufallsvektoren, Abhängigkeit, Korrelation

Interessiert man sich gleichzeitig für mehrere Zufallsgrößen $ X_1,\ldots,X_n$
- z.B. die Kurse verschiedener Aktien - und für ihre wechselseitige Abhängigkeit, so betrachtet man $ (X_1, \ldots, X_n) $ als zufälligen Punkt oder Zufallsvektor im $ \mathbb{R}^n.$ Die gemeinsame Verteilung der Zufallsgrößen $ X_1,\ldots,X_n$, d.h. die Verteilung des Zufallsvektors, wird wie im eindimensionalen eindeutig durch die Wahrscheinlichkeiten

$\displaystyle \P(a_1 \le X_1 \le b_1, \ldots, a_n \le X_n \le b_n) \, \, , \quad - \infty < a_i \le b_i < \infty \, , \, i=1,...,n \, , $

bestimmt. Besitzt der Zufallsvektor $ (X_1, \ldots, X_n) $ eine Wahrscheinlichkeitsdichte $ p(x_1, \ldots, x_n)$, so können Wahrscheinlichkeiten wieder als Integrale von $ p$ berechnet werden:

$\displaystyle \P(a_1 \le X_1 \le b_1, \ldots, a_n \le X_n \le b_n) =
\int^{b_n}_{a_n} \ldots \int^{b_1}_{a_1} p(x_1, \ldots, x_n)
dx_1\ldots dx_n .$

Die eindimensionalen Verteilungen oder Randverteilungen von $ X_j$

$\displaystyle \P(a_j \le X_j \le b_j)= \int^{\infty}_{-\infty}\ldots\int^{b_j}_{a_j} \ldots \int^{\infty}_{-\infty} p(x_1, \ldots, x_n)
dx_1\ldots dx_n $

erhält man durch Integration der gemeinsame Dichte über die anderen Variablen.

Der intuitive Begriff der Unabhängigkeit zweier Zufallsgrößen $ X_1, X_2 $ wird präzisiert durch die Forderung, dass

$\displaystyle \P(a_1 \le X_1 \le b_1, \, a_2 \le X_2 \le b_2) = \P(a_1 \le X_1 \le b_1) \, \cdot
\, \P(a_2 \le X_2 \le b_2), $

d.h. Wahrscheinlichkeiten von Ereignissen, die von dem Wert des Zufallsvektors $ (X_1, X_2) $ abhängen, lassen sich faktorisieren, und es genügt, die eindimensionalen Verteilungen von $ X_1 $ und $ X_2$ zu kennen. Besitzt der Zufallsvektor $ (X_1, X_2) $ eine Dichte $ p(x_1,
x_2)$, so besitzen $ X_1 $ und $ X_2$ ebenfalls Dichten $ p_1(x)$ und $ p_2(x)$. Die Unabhängigkeit der beiden Zufallsgrößen ist dann gleichbedeutend mit der Faktorisierung der gemeinsamen Dichte:

$\displaystyle p(x_1, x_2) = p_1(x_1) p_2(x_2)$

Abhängigkeit zweier Zufallsgrößen $ X_1, X_2 $ kann in komplizierter Form vorliegen. Sind $ X_1, X_2 $ gemeinsam normalverteilt, lässt sich der Grad ihrer Abhängigkeit aber auf einfache Weise quantifizieren durch ihre Kovarianz

$\displaystyle \mathop{\text{\rm Cov}}(X_1, X_2) = \mathop{\text{\rm\sf E}}[(X_1 - \mathop{\text{\rm\sf E}}[X_1])(X_2 - \mathop{\text{\rm\sf E}}[X_2])]$

oder Korrelation

$\displaystyle \mathop{\text{\rm Corr}}(X_1, X_2) = {\displaystyle
\frac{\mathop{\text{\rm Cov}}(X_1, X_2)}{\sigma (X_1)\ \cdot \, \sigma (X_2) } \, }.$

Die Korrelation hat den Vorteil, immer zwischen - 1 und + 1 zu liegen und skaleninvariant zu sein. Für gemeinsam normalverteilte Zufallsgrößen ist Unabhängigkeit gleichbedeutend mit Korrelation gleich Null, während vollständige Abhängigkeit gleichbedeutend mit Korrelation + 1 ($ X_1 $ ist groß, wenn $ X_2$ groß ist) oder Korrelation -1 $ (X_1$ ist groß, wenn $ X_2$ klein ist) ist.

Allgemein gilt für unabhängige Zufallsgrößen $ X_1,\ldots,X_n$

$\displaystyle \mathop{\text{\rm Cov}}(X_i, X_j) = 0 \qquad \text{\rm f\uml ur\ } \, i \not= j \, , $

woraus eine nützliche Rechenregel folgt:

$\displaystyle \mathop{\text{\rm Var}}\big( \sum^n_{j=1} \, X_j \big) = \sum^n_{j=1} \, \mathop{\text{\rm Var}}(X_j) \, . $

Sind $ X_1,\ldots,X_n$ unabhängige Zufallsgrößen, die alle dieselbe Verteilung haben:

$\displaystyle \P(a \le X_i \le b ) = \P(a \le X_j \le b)$   für alle $\displaystyle \, i, j
\, , $

so nennen wir sie unabhängig identisch verteilt (u.i.v.).