39 - 1-Stichproben-Tests

Seien \(X_1,\ldots,X_n\) unabhängig und normalverteilt.

Einseitiger Gaußtest

Sei $$T=\sqrt{n}\frac{\bar{X}-\mu_0}{\sigma}$$ und \(z_{1-\alpha}\) das \((1-\alpha)\)-Quantil der Standardnormalverteilung. Der einseitige Gaußtest verwirft die Nullhypothese \(H_0:\mu\leq\mu_0\) auf dem Signifikanzniveau \(\alpha\) zugunsten von \(H_1:\mu>\mu_0\), wenn \(T>z_{1-\alpha}\).

Der einseitige Gaußtest verwirft \(H_0: \mu\ge\mu_0\) auf dem Signifikanzniveau \(\alpha\) zugunsten von \(H_1: \mu < \mu_0\), wenn \(T<z_{\alpha}\).

Gütefunktion

Die Gütefunktion des einseitigen Gaußtests ist gegeben durch $$G(\mu)=\Phi\left(-z_{1-\alpha}+\frac{\mu-\mu_0}{\sigma/\sqrt{n}}\right).$$

Die Gütefunktion ist differenzierbar in \(\mu\), monoton wachsend im Stichprobenumfang \(n\), monoton wachsend in \(\mu-\mu_0\) sowie monoton fallend in \(\sigma^2\).

Fallzahlplanung

Sei \(d_0\) die Mindestabweichung der Lageänderung \(d=\mu-\mu_0\), die mit einer Wahrscheinlichkeit von mindestens \(1-\beta\) aufgedeckt werden soll. Dann muss gelten: $$n\ge\frac{\sigma^2}{|\mu-\mu_0|^2}(z_{1-\alpha}+z_{1-\beta})^2.$$

Zweiseitiger Gaußtest

Der zweiseitige Gaußtest verwirft die Nullhypothese \(H_0: \mu=\mu_0\) zugunsten der Alternative \(H_1: \mu\neq\mu_0\) (Abweichung vom Sollwert \(\mu_0\)), wenn \(|T|>z_{1-\alpha/2}\).

Gütefunktion

Die Gütefunktion des zweiseitigen Gaußtests ist gegeben durch $$G(\mu)=2\Phi\left(-z_{1-\alpha/2}+\frac{\mu-\mu_0}{\sigma/\sqrt{n}}\right).$$

Die Gütefunktion ist differenzierbar in \(\mu\), monoton wachsend im Stichprobenumfang \(n\), monoton wachsend in \(|\mu-\mu_0|\) sowie monoton fallend in \(\sigma^2\).

Fallzahlplanung

Sei \(\Delta\) die Mindestabweichung von \(|\mu-\mu_0|\), die mit einer Wahrscheinlichkeit von mindestens \(1-\beta\) aufgedeckt werden soll. Dann muss gelten: $$n\ge\frac{\sigma^2}{|\mu-\mu_0|^2}(z_{1-\alpha/2}+z_{1-\beta})^2.$$

Der \(t\)-Test

Der zweiseitige \(t\)-Test verwirft \(H_0: \mu=\mu_0\) zugunsten von \(H_1: \mu\neq\mu_0\) auf dem Signifikanzniveau \(\alpha\), wenn \(|T|>t(n-1)_{1-\alpha/2}\). Der einseitige \(t\)-Test für das Testproblem \(H_0: \mu\leq\mu_0\) gegen \(H_1: \mu>\mu_0\) verwirft \(H_0\), wenn \(T>t(n-1)_{1-\alpha}\). Die Nullhypothese \(H_0:\mu\ge\mu_0\) wird zugunsten von \(H_1: \mu<\mu_0\) verworfen, wenn \(T<-t(n-1)_{1-\alpha}\).

\(p\)-Wert

Sei \(t_{\text{obs}}=T(x_1,\ldots,x_n)\) der realisierte Wert der Teststatistik \(T\) und \(T^{\ast}\) die Teststatistik bei Wiederholung des Experiments. Dann ist der \(p\)-Wert für das Testproblem $$H_0: \mu\le\mu_0 \quad \text{gegen} \quad H_1: \mu>\mu_0$$ definiert durch $$p=P_{H_0}(T^{\ast}>t_{\text{obs}})$$.

Binomialtest

Sei \(Y\sim\text{Bin}(n,p)\). Der exakte Binomialtest verwirft \(H_0: p\le p_0\) zugunsten von \(H_1: p> p_0\), wenn \(Y>c_{\text{krit}}\), wobei \(c_{\text{krit}}\) die kleinste ganze Zahl ist, sodass $$\sum_{k=c_{\text{krit}}+1}^n\binom{n}{k}p_0^k(1-p_0)^{n-k}\le\alpha.$$

Asymptotischer Binomialtest

Der asymptotische Binomialtest verwirft \(H_0: p\le p_0\) auf dem Niveau \(\alpha\) zugunsten von \(H_1: p> p_0\), wenn $$T=\frac{Y-np_0}{\sqrt{np_0(1-p_0)}}>z_{1-\alpha}.$$

Äquivalent dazu ist \(Y>np_0+z_{1-\alpha}\sqrt{np_0(1-p_0)}\).