39 - 1-Stichproben-Tests
Seien \(X_1,\ldots,X_n\) unabhängig und normalverteilt.
Einseitiger Gaußtest
Sei $$T=\sqrt{n}\frac{\bar{X}-\mu_0}{\sigma}$$ und \(z_{1-\alpha}\) das \((1-\alpha)\)-Quantil der Standardnormalverteilung. Der einseitige Gaußtest verwirft die Nullhypothese \(H_0:\mu\leq\mu_0\) auf dem Signifikanzniveau \(\alpha\) zugunsten von \(H_1:\mu>\mu_0\), wenn \(T>z_{1-\alpha}\).
Der einseitige Gaußtest verwirft \(H_0: \mu\ge\mu_0\) auf dem Signifikanzniveau \(\alpha\) zugunsten von \(H_1: \mu < \mu_0\), wenn \(T<z_{\alpha}\).
Gütefunktion
Die Gütefunktion des einseitigen Gaußtests ist gegeben durch $$G(\mu)=\Phi\left(-z_{1-\alpha}+\frac{\mu-\mu_0}{\sigma/\sqrt{n}}\right).$$
Die Gütefunktion ist differenzierbar in \(\mu\), monoton wachsend im Stichprobenumfang \(n\), monoton wachsend in \(\mu-\mu_0\) sowie monoton fallend in \(\sigma^2\).
Fallzahlplanung
Sei \(d_0\) die Mindestabweichung der Lageänderung \(d=\mu-\mu_0\), die mit einer Wahrscheinlichkeit von mindestens \(1-\beta\) aufgedeckt werden soll. Dann muss gelten: $$n\ge\frac{\sigma^2}{|\mu-\mu_0|^2}(z_{1-\alpha}+z_{1-\beta})^2.$$
Zweiseitiger Gaußtest
Der zweiseitige Gaußtest verwirft die Nullhypothese \(H_0: \mu=\mu_0\) zugunsten der Alternative \(H_1: \mu\neq\mu_0\) (Abweichung vom Sollwert \(\mu_0\)), wenn \(|T|>z_{1-\alpha/2}\).
Gütefunktion
Die Gütefunktion des zweiseitigen Gaußtests ist gegeben durch $$G(\mu)=2\Phi\left(-z_{1-\alpha/2}+\frac{\mu-\mu_0}{\sigma/\sqrt{n}}\right).$$
Die Gütefunktion ist differenzierbar in \(\mu\), monoton wachsend im Stichprobenumfang \(n\), monoton wachsend in \(|\mu-\mu_0|\) sowie monoton fallend in \(\sigma^2\).
Fallzahlplanung
Sei \(\Delta\) die Mindestabweichung von \(|\mu-\mu_0|\), die mit einer Wahrscheinlichkeit von mindestens \(1-\beta\) aufgedeckt werden soll. Dann muss gelten: $$n\ge\frac{\sigma^2}{|\mu-\mu_0|^2}(z_{1-\alpha/2}+z_{1-\beta})^2.$$
Der \(t\)-Test
Der zweiseitige \(t\)-Test verwirft \(H_0: \mu=\mu_0\) zugunsten von \(H_1: \mu\neq\mu_0\) auf dem Signifikanzniveau \(\alpha\), wenn \(|T|>t(n-1)_{1-\alpha/2}\). Der einseitige \(t\)-Test für das Testproblem \(H_0: \mu\leq\mu_0\) gegen \(H_1: \mu>\mu_0\) verwirft \(H_0\), wenn \(T>t(n-1)_{1-\alpha}\). Die Nullhypothese \(H_0:\mu\ge\mu_0\) wird zugunsten von \(H_1: \mu<\mu_0\) verworfen, wenn \(T<-t(n-1)_{1-\alpha}\).
\(p\)-Wert
Sei \(t_{\text{obs}}=T(x_1,\ldots,x_n)\) der realisierte Wert der Teststatistik \(T\) und \(T^{\ast}\) die Teststatistik bei Wiederholung des Experiments. Dann ist der \(p\)-Wert für das Testproblem $$H_0: \mu\le\mu_0 \quad \text{gegen} \quad H_1: \mu>\mu_0$$ definiert durch $$p=P_{H_0}(T^{\ast}>t_{\text{obs}})$$.
Binomialtest
Sei \(Y\sim\text{Bin}(n,p)\). Der exakte Binomialtest verwirft \(H_0: p\le p_0\) zugunsten von \(H_1: p> p_0\), wenn \(Y>c_{\text{krit}}\), wobei \(c_{\text{krit}}\) die kleinste ganze Zahl ist, sodass $$\sum_{k=c_{\text{krit}}+1}^n\binom{n}{k}p_0^k(1-p_0)^{n-k}\le\alpha.$$
Asymptotischer Binomialtest
Der asymptotische Binomialtest verwirft \(H_0: p\le p_0\) auf dem Niveau \(\alpha\) zugunsten von \(H_1: p> p_0\), wenn $$T=\frac{Y-np_0}{\sqrt{np_0(1-p_0)}}>z_{1-\alpha}.$$
Äquivalent dazu ist \(Y>np_0+z_{1-\alpha}\sqrt{np_0(1-p_0)}\).