25 - Erwartungswert, Varianz, Momente und Entropie

Erwartungswert einer diskreten Zufallsvariblen

Ist \(X\) eine diskrete Zufallsvariable mit Werten in \(\mathcal{X}\) und Zähldichte \(p_X(x), x\in\mathcal{X},\) dann ist der Erwartungswert von \(X\) definiert durch $$E(X)=\sum_{x\in\mathcal{X}}x\cdot p_X(x),$$ falls \(\sum_{x\in\mathcal{X}}|x|p_X(x)<\infty\).

Erwartungswert einer stetigen Zufallsvariablen

Ist \(X\sim f_X(x)\) eine stetige Zufallsvariable, dann heißt $$E(X)=\int_{-\infty}^{\infty}xf_X(x)dx$$ Erwartungswert von \(X\), sofern \(\int_{-\infty}^{\infty}|x|f_X(x)dx<\infty\).

Rechenregeln

Sind \(X\) und \(Y\) Zufallsvariablen und \(a,b\in\mathbb{R}\), dann gilt:

  1. \(E(X+Y)=E(X)+E(Y)\),
  2. \(E(aX+b)=aE(X)+b\),
  3. \(E|X+Y|\leq E|X|+E|Y|\),
  4. Jensen-Ungleichung: Ist \(g(x)\) konvex, dann gilt \(E(g(X))\geq g(E(X))\) und \(E(g(X))> g(E(X))\), wenn \(g(x)\) strikt konvex ist. Ist \(g(x)\) konkav, dann gelten die Ungleichungen mit umgekehrten Ungleicheitszeichen.

Produkteigenschaft

Sind \(X\) und \(Y\) stochastisch unabhängige Zufallsvariablen, dann gilt für alle Funktionen \(f(x)\) und \(g(x)\) $$E(f(X)g(Y))=E(f(X))\cdot E(g(Y)),$$ sofern \(E|f(X)|<\infty\) und \(E|g(Y)|<\infty\). Insbesondere gilt dann $$E(XY)=E(X)\cdot E(Y).$$

Transformationsformel

Ist \(X\) eine Zufallsvariable und \(g:\mathcal{X}\rightarrow\mathcal{Y}\) eine Funktion mit \(E|g(X)|<\infty\), dann gilt für den Erwartungswert der Zufallsvariablen \(Y=g(X)\):

  1. Sind \(X\sim p_X(x)\) und \(Y\sim p_Y(y)\) diskrete Zufallsvariablen, dann gilt $$E(Y)=\sum_{x\in\mathcal{X}}g(x)p_X(x)=\sum_{y\in\mathcal{Y}}yp_Y(y).$$
  2. Sind \(X\sim f_X(x)\) und \(Y\sim f_Y(y)\) stetige Zufallsvariablen, dann gilt $$E(Y)=\int_{-\infty}^{\infty}g(x)f_X(x)dx=\int_{-\infty}^{\infty}yf_Y(y)dy.$$

Varianz

Ist \(X\) eine Zufallsvariable mit \(E(X^2)<\infty\), dann heißt $$\sigma_X^2=\text{Var}(X)=E((X-E(X))^2)$$ Varianz von \(X\). Der Ausdruck $$\sigma_X=\sqrt{\text{Var}(X)}$$ heißt Standardabweichung von \(X\).

Varianz und Stichprobenvarianz

Ist \(X\) eine diskrete Zufallsvariable mit Werten in \(\mathcal{X}=\{x_1,\ldots,x_n\}\) und \(P(X=x_i)=\frac{1}{n}\) für alle \(i=1,\ldots,n\), dann gilt $$E(X)=\frac{1}{n}\sum_{i=1}^nx_i \quad \text{und} \quad \text{Var}(X)=\frac{1}{n}\sum_{i=1}^n(x_i-\bar{x})^2.$$

Verschiebungssatz

Es gilt \(\text{Var}(X)=E(X^2)-(E(X))^2\).

Rechenregeln

Sind \(X\) und \(Y\) Zufallsvariablen, deren Varianzen existieren, und \(a\in\mathbb{R}\), dann gilt:

  1. \(\text{Var}(aX)=a^2\text{Var}(X)\).
  2. \(\text{Var}(X)=E(X^2)\), wenn \(E(X)=0\).
  3. Sind \(X\) und \(Y\) stochastisch unabhängig, dann gilt $$\text{Var}(X+Y)=\text{Var}(X)+\text{Var}(Y).$$

Kovarianz

Für Zufallsvariablen \(X\) und \(Y\), deren Varianzen existieren, heißt $$\text{Cov}(X,Y)=E(X-\mu_X)(Y-\mu_Y)$$ Kovarianz von \(X\) und \(Y\).

Rechenregeln

Sind \(X,Y\) und \(Z\) Zufallsvariablen mit existierenden Varianzen, dann gilt:

  1. \(\text{Cov}(aX,bY)=ab\text{Cov}(X,Y)\) für alle \(a,b\in\mathbb{R}\).
  2. \(\text{Cov}(X,Y)=\text{Cov}(Y,X)\).
  3. \(\text{Cov}(X,Y)=0\), falls \(X\) und \(Y\) stochastisch unabhängig sind.
  4. \(\text{Cov}(X+Y,Z)=\text{Cov}(X,Z)+\text{Cov}(Y,Z)\).

Unkorreliertheit

Zwei Zufallsvariablen \(X\) und \(Y\) sind unkorreliert, wenn \(\text{Cov}(X,Y)=0\).

Aus stochastischer Unabhängigkeit folgt Unkorreliertheit, die Umkehrung gilt i. A. nicht.

Korrelationskoeffizient

Sind \(X\) und \(Y\) Zufallsvariablen mit Varianzen \(\sigma_X^2\in(0,\infty)\) und \(\sigma_Y^2\in(0,\infty)\), dann wird $$\rho=\rho(X,Y)=\text{Cor}(X,Y)=\frac{\text{Cov}(X,Y)}{\sigma_X\sigma_Y}$$ Korrelationskoeffizient von \(X\) und \(Y\) genannt.

Eigenschaften

Für Zufallsvariablen \(X\) und \(Y\) gilt:

  1. \(\text{Cor}(X,Y)=\text{Cor}(Y,X)\).
  2. \(-1\leq\text{Cor}(X,Y)\leq1\).
  3. \(|\text{Cor}(X,Y)|=1\) gilt genau dann, wenn \(X\) und \(Y\) linear abhängig sind.
  4. \(\text{Cov}(X,Y)=1\) genau dann, wenn \(Y=a+bX\) mit \(b>0,a\in\mathbb{R}\).
  5. \(\text{Cov}(X,Y)=-1\) genau dann, wenn \(Y=a+bX\) mit \(b<0,a\in\mathbb{R}\).

Cauchy-Schwarz-Ungleichung

Für Zufallsvariablen \(X\) und \(Y\) mit Varianzen \(\sigma_X^2\in(0,\infty)\) und \(\sigma_Y^2\in(0,\infty)\) gilt $$|\text{Cov}(X,Y)|\leq\sqrt{\text{Var}(X)}\sqrt{\text{Var}(Y)}=\sigma_X\sigma_Y.$$

Momente

Ist \(X\) eine Zufallsvariable mit \(E|X|^k<\infty\) und \(a\in\mathbb{R}\), dann heißt $$m_k(a)=E(X-a)^k, \quad m_k=m_k(0),$$ Moment \(k\)-ter Ordnung von \(X\) bzgl. \(a\). Der Ausdruck $$m_k^{\ast}(a)=E|X-a|^k, \quad m_k^{\ast}=m_k^{\ast}(0),$$ heißt zentriertes Moment \(k\)-ter Ordnung von \(X\) bzgl. \(a\). Die Ausdrücke $$\mu_k=m_k(E(X)) \quad \text{und} \quad \mu_k^{\ast}=m_k^{\ast}(E(X))$$ heißen zentrales Moment und zentrales absolutes Moment.

Einige Momente

  • \(m_1=E(X)\),
  • \(m_2=E(X^2)\) und \(\mu_2=\text{Var}(X)\),
  • Das vierte Moment von \(X^{\ast}=\frac{X-E(X)}{\sqrt{\text{Var}(X)}}\) ist \(\beta_2=E(X^{\ast})^4=\frac{m_4(X)}{\sigma_X^4}\) und heißt Kurtosis.
  • Ist \(X\sim N(\mu,\sigma^2)\), dann ist \(\beta_2=3\) und \(\gamma_2=\beta_2-3\) heißt Exzess.

Entropie

Ist \(X\) eine diskrete Zufallsvariable mit Werten in \(\mathcal{X}=\{x_1,x_2,\ldots\}\) und zugehörigen Wahrscheinlichkeiten \(p_i=P(X=x_i)\), dann heißt $$H(X)=-\sum_{i=1}^{\infty}p_i\log_2(p_i)$$ Entropie von \(X\).

Man setzt \(0\cdot\log_2(0)=0\).