Sei $(\Omega, P)$ ein endlicher Wahrscheinlichkeitsraum. Für eine Zufallsvariable $X : \Omega \rightarrow \R$ definieren wir den Erwartungswert von $X$ als
\begin{align} \E[X] := \sum_{\omega \in \Omega}\Pr[\omega]\cdot X(\omega) \ . \label{def-expectation} \end{align}In dem häufigen Fall, dass $\im(X) \subseteq \N$, dass $X$ also nur natürliche Werte annimmt, können wir (\ref{def-expectation}) umschreiben:
\begin{align} \E[X] & = \sum_{i=1}^\infty i \cdot \Pr[X=i] \ . \label{expectation-sum-over-integers} \end{align}This formula is sometimes inconvenient due to the factor $i$ in front of the probability. There is an alternative summation for $\E[X]$ that is sometimes easier to work with:
Lemma Let $X$ be a random variable that takes on values in $\N$. THen
\begin{align*} \E[X] & = \sum_{i=1}^\infty \Pr[X \geq i] \ . \end{align*}Ich werde zuerst einen Beweis durch Summenmanipulation führen und dann den gleichen durch ein paar Bilder illustrieren.
Beweis. Der erste "Trick" ist, die Zahl $i$ als $\sum_{j=1}^i 1$ zu schreiben:
\begin{align*} \E[X] & = \sum_{i=1}^\infty \Pr[X=i] \cdot i = \sum_{i=1}^\infty \Pr[X=i] \cdot \sum_{j=1}^i 1 \ . \end{align*}Solche verschachtelten Summen sind oft unangenehm, weil der Bereich, über den die inner Summe läuft ($j=1, \dots, i$) abhängt von der Laufvariable der ersten Summierung (hier $i$). Das können wir ändern, in dem wir einfach über alle Werte von $j$ summieren aber "falsche" Werte auf $0$ setzen. Wir verwenden hierbei die Schreibweise $[\textnormal{Aussage}]$; dies ergibt $1$, falls ``Aussage'' gilt, ansonsten $0$.
\begin{align*} \E[X] & = \sum_{i=1}^\infty \Pr[X=i] \cdot i = \sum_{i=1}^\infty \Pr[X=i] \cdot \sum_{j=1}^i 1 \\ & = \sum_{i=1}^\infty \Pr[X=i] \sum_{j=1}^\infty [j \leq i] \end{align*}Der Ausdruck $[j \leq i]$ ist $0$ wenn $j \gt i$ ist und erzielt somit den Effekt, dass die innere Summe im Prinzip nur über $j \in \{1,\dots,i\}$ läuft. Der Vorteil ist, dass wir nun die Summen ohne großes Nachdenken vertauschen können:
\begin{align*} \sum_{i=1}^\infty \Pr[X=i] \sum_{j=1}^\infty [j \leq i] & = \sum_{j=1}^\infty \left( \sum_{i=1}^\infty [j \leq i] \Pr[X=i]\right) \end{align*}Für gegebenes $j$ addiert die innere Summe nur die Terme für $i \geq j$. Es gilt also
\begin{align*} \sum_{i=1}^\infty [j \leq i] \Pr[X=i] & = \sum_{i=i}^\infty \Pr[X=i] = \Pr[X \geq j] \ . \end{align*}Wenn wir nun alles zusammenführen, erhalten wir
\begin{align*} \E[X] & = \sum_{i=1}^\infty \Pr[X=i] \cdot i \\ & = \sum_{j=1}^\infty \left( \sum_{i=1}^\infty [j \leq i] \Pr[X=i]\right) \\ & = \sum_{j=1}^\infty \Pr[X \geq j] \ , \end{align*}wie behauptet. \(\square\)
Eine Illustration hilft hier. In der folgenden Abbildung zeichnen wir $\Pr[X \geq i]$ für jedes $i \in \N$ als Balken ein. Die Balken werden natürlich für steigendes $i$ kleiner:
Die etwas dunkler schraffierte Fläche ist $\sum_{j=1}^\infty \Pr[X \geq j]$. Wo können wir in diesem Balkendiagramm $\Pr[X=i]$ ablesen?
Richtig, es ist die Höhendifferenz zwischen zwei Balken und somit die Fläche, mit der Balken $i$ über Balken $i+1$ übersteht. Der Term $i \cdot \Pr[X=i]$ hat somit die folgende bildliche Interpretation:
Tun wir dies für jedes $i$ (statt nur für $i=3$ wie im obigen Beispiel), erhalten wir
Summieren wir die gefärbte Fläche auf, so erhalten wir
\begin{align*} \sum_{i=1}^\infty i \cdot \Pr[X=i] \ , \end{align*}da wir für jedes $i$ genau $i$ viele Rechtecke dieser Farbe haben.