30 - Grenzwertsätze und Konvergenzbegriffe
Das Gesetz der großen Zahlen
Tschebyschow-Ungleichung
Sind \(X_1,\ldots,X_n\) unabhängig und identisch verteilte Zufallsvariablen mit Erwartungswert \(\mu\) und Varianz \(\sigma^2\in(0,\infty)\), dann gilt für das arithmetische Mittel \(\bar{X}_n\): $$P(|\bar{X}_n-\mu|>\varepsilon)\leq\frac{\sigma^2}{n\varepsilon^2}.$$
Schwaches Gesetz der goßen Zahlen
Sind \(X_1,\ldots,X_n\) unabhängig und identisch verteilte Zufallsvariablen mit Erwartungswert \(\mu\) und Varianz \(\sigma^2\in(0,\infty)\), dann gilt für jedes \(\varepsilon>0\) $$P(|\bar{X}_n-\mu|>\varepsilon)\rightarrow0, \quad n\rightarrow\infty.$$
Starkes Gesetz der großen Zahlen
Sind \(X_1,\ldots,X_n\) unabhängig und identisch verteilte Zufallsvariablen mit \(E|X_1|<\infty\) und Erwartungswert \(\mu\), dann gilt $$P(\bar{X}_n\rightarrow\mu)=P(\{\omega|\bar{X}_n(\omega) \text{ konvergiert gegen } \mu\})=1.$$
Der Hauptsatz der Statistik
Sind \(X_1,\ldots,X_n\stackrel{\text{i.i.d.}}{\sim}F(x)\), dann gilt $$P\left(\lim_{n\rightarrow\infty}\max_{x\in\mathbb{R}}|F_n(x)-F(x)|=0\right)=1.$$
Der zentrale Grenzwertsatz (ZGWS)
Sind \(X_1,\ldots,X_n\) unabhängig und identisch verteilte Zufallsvariablen mit Erwartungswert \(\mu=E(X_1)\) und Varianz \(\sigma^2\in(0,\infty)\), dann gilt$$\bar{X}_n \sim_{\textit{approx}} N(\mu,\sigma^2/n)$$ in dem Sinne, dass die Verteilungsfunktion der standardisierten Version gegen die Verteilungsfunktion der Standardnormalverteilung konvergiert: $$P\left(\sqrt{n}\frac{\bar{X}_n-\mu}{\sigma}\leq x\right) \rightarrow \Phi(x), \quad n\rightarrow\infty.$$
Ist \(s_n\) eine Zufallsvariable mit \(\lim_{n\rightarrow\infty}P(|s_n/\sigma-1|>\varepsilon)=0\) für alle \(\varepsilon>0\), dann kann man beim ZGWS \(\sigma\) durch \(s_n\) ersetzen.
Konvergenzbegriffe
Stochastische Konvergenz
Ist \(X_1,X_2,\ldots\) eine Folge von Zufallsvariablen und \(a\in\mathbb{R}\) konstant, dann sagt man, \((X_n)_{n\in\mathbb{N}}\) konvergiert stochastisch gegen \(a\), wenn für alle \(\varepsilon>0\) gilt: $$\lim_{n\rightarrow\infty}P(|X_n-a|>\varepsilon)=0.$$ Notation: \(X_n \stackrel{P}{\rightarrow} a, n\rightarrow\infty\).
Die Konstante \(a\) kann auch durch eine Zufallsvariable \(X\) ersetzt werden.
Fast sichere Konvergenz
Ist \(X_1,X_2,\ldots\) eine Folge von Zufallsvariablen und \(a\in\mathbb{R}\) eine Konstante, dann sagt man, \((X_n)_{n\in\mathbb{N}}\) konvergiert fast sicher gegen \(a\), wenn $$P(X_n\rightarrow a)=P(\lim_{n\rightarrow\infty}X_n=a)=1.$$ Notation: \(X_n\stackrel{f.s.}{\rightarrow}a, n\rightarrow\infty\).
Die Konstante \(a\) kann auch durch eine Zufallsvariable \(X\) ersetzt werden.
Konvergenz in Verteilung
Ist \(X_1,X_2,\ldots\) eine Folge von Zufallsvariablen mit \(X_i\sim F_i(x), i=1,2,\ldots,\) dann sagt man, \(X_n\) konvergiert in Verteilung gegen \(X\sim F(x)\), wenn $$F_n(X)\rightarrow F(x), \quad n\rightarrow\infty,$$ in allen Stetigkeitsstellen \(x\) von \(F(x)\). Notation: \(X_n\stackrel{d}{\rightarrow}X\), \(X_n\stackrel{d}{\rightarrow}F\) oder \(F_n\stackrel{d}{\rightarrow}F\).
Eigenschaften
- Es gilt $$X_n\stackrel{f.s.}{\rightarrow}X \quad \Rightarrow \quad X_n \stackrel{P}{\rightarrow}X \quad \Rightarrow \quad X_n \stackrel{d}{\rightarrow}X.$$
- Aus \(E(X_n-X)^2\rightarrow0\) für \(n\rightarrow\infty\) folgt \(X_n\stackrel{P}{\rightarrow}X\) für \(n\rightarrow\infty\).
- Die Umkehrungen gelten i. A. nicht.