30 - Grenzwertsätze und Konvergenzbegriffe

Das Gesetz der großen Zahlen

Tschebyschow-Ungleichung

Sind \(X_1,\ldots,X_n\) unabhängig und identisch verteilte Zufallsvariablen mit Erwartungswert \(\mu\) und Varianz \(\sigma^2\in(0,\infty)\), dann gilt für das arithmetische Mittel \(\bar{X}_n\): $$P(|\bar{X}_n-\mu|>\varepsilon)\leq\frac{\sigma^2}{n\varepsilon^2}.$$

Schwaches Gesetz der goßen Zahlen

Sind \(X_1,\ldots,X_n\) unabhängig und identisch verteilte Zufallsvariablen mit Erwartungswert \(\mu\) und Varianz \(\sigma^2\in(0,\infty)\), dann gilt für jedes \(\varepsilon>0\) $$P(|\bar{X}_n-\mu|>\varepsilon)\rightarrow0, \quad n\rightarrow\infty.$$

Starkes Gesetz der großen Zahlen

Sind \(X_1,\ldots,X_n\) unabhängig und identisch verteilte Zufallsvariablen mit \(E|X_1|<\infty\) und Erwartungswert \(\mu\), dann gilt $$P(\bar{X}_n\rightarrow\mu)=P(\{\omega|\bar{X}_n(\omega) \text{ konvergiert gegen } \mu\})=1.$$

Der Hauptsatz der Statistik

Sind \(X_1,\ldots,X_n\stackrel{\text{i.i.d.}}{\sim}F(x)\), dann gilt $$P\left(\lim_{n\rightarrow\infty}\max_{x\in\mathbb{R}}|F_n(x)-F(x)|=0\right)=1.$$

Der zentrale Grenzwertsatz (ZGWS)

Sind \(X_1,\ldots,X_n\) unabhängig und identisch verteilte Zufallsvariablen mit Erwartungswert \(\mu=E(X_1)\) und Varianz \(\sigma^2\in(0,\infty)\), dann gilt$$\bar{X}_n \sim_{\textit{approx}} N(\mu,\sigma^2/n)$$ in dem Sinne, dass die Verteilungsfunktion der standardisierten Version gegen die Verteilungsfunktion der Standardnormalverteilung konvergiert: $$P\left(\sqrt{n}\frac{\bar{X}_n-\mu}{\sigma}\leq x\right) \rightarrow \Phi(x), \quad n\rightarrow\infty.$$ 

Ist \(s_n\) eine Zufallsvariable mit \(\lim_{n\rightarrow\infty}P(|s_n/\sigma-1|>\varepsilon)=0\) für alle \(\varepsilon>0\), dann kann man beim ZGWS \(\sigma\) durch \(s_n\) ersetzen.

Konvergenzbegriffe

Stochastische Konvergenz

Ist \(X_1,X_2,\ldots\) eine Folge von Zufallsvariablen und \(a\in\mathbb{R}\) konstant, dann sagt man, \((X_n)_{n\in\mathbb{N}}\) konvergiert stochastisch gegen \(a\), wenn für alle \(\varepsilon>0\) gilt: $$\lim_{n\rightarrow\infty}P(|X_n-a|>\varepsilon)=0.$$ Notation: \(X_n \stackrel{P}{\rightarrow} a, n\rightarrow\infty\).

Die Konstante \(a\) kann auch durch eine Zufallsvariable \(X\) ersetzt werden.

Fast sichere Konvergenz

Ist \(X_1,X_2,\ldots\) eine Folge von Zufallsvariablen und \(a\in\mathbb{R}\) eine Konstante, dann sagt man, \((X_n)_{n\in\mathbb{N}}\) konvergiert fast sicher gegen \(a\), wenn $$P(X_n\rightarrow a)=P(\lim_{n\rightarrow\infty}X_n=a)=1.$$ Notation: \(X_n\stackrel{f.s.}{\rightarrow}a, n\rightarrow\infty\).

Die Konstante \(a\) kann auch durch eine Zufallsvariable \(X\) ersetzt werden.

Konvergenz in Verteilung

Ist \(X_1,X_2,\ldots\) eine Folge von Zufallsvariablen mit \(X_i\sim F_i(x), i=1,2,\ldots,\) dann sagt man, \(X_n\) konvergiert in Verteilung gegen \(X\sim F(x)\), wenn $$F_n(X)\rightarrow F(x), \quad n\rightarrow\infty,$$ in allen Stetigkeitsstellen \(x\) von \(F(x)\). Notation: \(X_n\stackrel{d}{\rightarrow}X\), \(X_n\stackrel{d}{\rightarrow}F\) oder \(F_n\stackrel{d}{\rightarrow}F\).

Eigenschaften

  1. Es gilt $$X_n\stackrel{f.s.}{\rightarrow}X \quad \Rightarrow \quad X_n \stackrel{P}{\rightarrow}X \quad \Rightarrow \quad X_n \stackrel{d}{\rightarrow}X.$$
  2. Aus \(E(X_n-X)^2\rightarrow0\) für \(n\rightarrow\infty\) folgt \(X_n\stackrel{P}{\rightarrow}X\) für \(n\rightarrow\infty\).
  3. Die Umkehrungen gelten i. A. nicht.