Statistischer Hypothesentest
Ein altbekanntes Problem der empirischen Wissenschaften ist das
Induktionsproblem. Es ist logisch unmöglich, von wenigen
Beobachtungen eine Schlussfolgerung für alle
möglichen oder noch nicht beobachteten Fälle zu
ziehen. Vor dieses Problem ist auch die induktive Statistik gestellt,
die mit Zufallsstichproben eine Aussage über die
Grundgesamtheit gewinnen will. Um keine voreiligen Schlüsse zu
ziehen, bedient sich die Statistik eines methodischen Konzepts, das
Aussagen über die Realität nur in Form von Hypothesen
formuliert und Wahrscheinlichkeiten für das Zutreffen dieser
Hypothesen angibt.
Theoretisches Konzept
Ausgangspunkt der statistischen Überprüfung einer
Hypothese ist zunächst das Aufstellen der sogenannten
Nullhypothese bzw. H0,
mit der die Annahme vertreten wird, die
Beobachtung sei zufällig und habe keine weitere Bedeutung. Die
eigentlich zu stützende Hypothese ist sodann die
Alternativhypothese bzw. H1,
welche H0
negiert. Beispielsweise
wäre beim Münzwurf, bei dem der Verdacht besteht, die
Münze sei gezinkt, H0
„Die Münze ist nicht
gezinkt“, während H0
„Die Münze
ist gezinkt“ lauten würde. Hinter der Nullhypothese
steht der statistische Erwartungswert, dass in den meisten
Fällen auf lange Sicht sich die Anzahl Kopf und Zahl die Waage
halten. Da sich trotz ungezinkter Münze auch Serien
für eine Münzseite einstellen können, die
umso weniger wahrscheinlich sind, je länger die Serie
andauert, entspannt sich um den Erwartungswert eine glockenkurvenartige
Wahrscheinlichkeitsverteilung. Diese Art von Verteilung, die
für jedes Zufallsexperiment gegeben ist und mathematisch
beschrieben werden kann, erlaubt nun das statistische Rechnen. Je
weiter die Beobachtung vom Erwartungswert entfernt ist, desto geringer
ist die Wahrscheinlichkeit, dass sie noch mit der Verteilung um den
Erwartungswert erklärt werden kann.
Standardmäßig wird unter fünf Prozent
Wahrscheinlichkeit von einem anderen Erwartungswert ausgegangen bzw.
die korrespondierende Nullhypothese verworfen und die
Alternativhypothese angenommen. Das Wahrscheinlichkeitsniveau, mit dem
die H0
fällt, wird α-Wert genannt, und liefert das
Konfidenzinterfall bezogen auf die Beobachtungswerte für das
Annehmen der Alternativhypothese. Je weitreichender die Folgen der
Alternativhypothese sind, so bei H1
„Das Medikament hat einen
heilenden Effekt“, desto geringer wird α
angesetzt.
Es herrscht also das Vorsichtsprinzip vor, um keine voreiligen
Schlüsse zu ziehen.
Fehler erster Art: Man sieht einen Geist
Wie eben beschrieben, drückt der α-Wert die
Wahrscheinlichkeit aus, dass die Zufallsstichprobe mit der
Nullhypothese erklärt werden kann. Daher birgt deren
Verwerfung das Risiko eines Irrtums und die Irrtumswahrscheinlichkeit
wird eben in Höhe von α angegeben. Wenn auch in der
Regel das Risiko auf fünf Prozent begrenzt wird, so ist es
dennoch da. Bei einer derartigen Fehlentscheidung begeht man den Fehler
ersten Art, der sinnfällig auch α-Fehler genannt
wird. In diesem Falle sieht man etwas, was in der Realität gar
nicht da ist und lässt sich von seiner Beobachtung zum
Akzeptieren einer falschen Hypothese verleiten. Man könnte
auch sagen, man sieht einen Geist.
Fehler zweiter Art: Blind gegenüber der
Realität
Umgekehrt kann die zu beweisende Alternativhypothese
irrtümlicherweise abgelehnt werden, obgleich sie richtig
wäre. Bildlich gesprochen, bliebe man dann gegenüber
der Realität blind. Angesprochen ist jetzt der Fehler zweiter
Art bzw. β-Fehler. Die Fehlerwahrscheinlichkeit β
kann errechnet werden, wenn die hinter der Alternativhypothese stehende
Wahrscheinlichkeitsverteilung bekannt ist. Bei vorbestimmten
α ist der kritische Beobachtungswert zum Ablehnen der
Nullhypothese gemäß der zu dieser
gehörenden Verteilung gegeben. Nun lautet die Frage, wie hoch
die Wahrscheinlichkeit ist, wenn dieser Wert unterschritten wird, die
auf den Erwartungswert von H1
zurückführbar sein
könnte. Nimmt man nun H1
nicht an, so ignoriert man mit
anderen Worten die Wahrscheinlichkeit, dass Beobachtungswerte im
H1-Verwerfungsbereich
doch dem Niveau um den Erwartungswert von H1
zuzuordnen sind. Freilich muss die H1-Verteilung
bekannt sein, was aber
selten der Fall ist. Im Zweifel wird die Beobachtung zugrunde gelegt.
Da α ausgehend von H0
bestimmt wird, und β ausgehend
von H1,
können α und β nicht einfach zu 100
% aufaddiert werden – ein weit verbreiteter Irrtum. Dennoch
gilt aufgrund des Vorsichtsprinzips der Zusammenhang, dass desto
kleiner α ist, umso größer β
ausfallen dürfte.
Für jede Fragestellung ein eigener Hypothesentest
Ausgehend vom Grundprinzip wurden zahlreiche Varianten von
Hypothesentests entwickelt. Je nach Verteilungsfunktion, Datenarten,
wobei die Unterscheidung zwischen stetigen und diskreten Daten gemeint
ist, und nicht zuletzt der aus einem realen Problem entlehnten
Fragestellung unterscheidet sich das Vorgehen. So können zwei
Stichproben darauf geprüft, werden, ob sie derselben
Grundgesamtheit zugehören. Ebenso kann eine gegebene
Verteilung darauf geprüft werden, ob sie normalverteilt ist.
In diesem Falle kommt es auf die richtige Lesart des Hypothesentests
an. Entgegen dem üblichen Fall wäre das Beibehalten
der H0 „Die
der Stichprobe zugehörige
Grundgesamtheit ist normalverteilt“
wünschenswert.
Hier wäre man nun großzügig mit dem
Beibehalten dieser Behauptung, denn H0
wird bekanntlich erst verworfen,
wenn man sich der Alternativhypothese mit unter fünf Prozent
Wahrscheinlichkeit irren würde. Bei Medikamententest
wäre dieses Vorgehen allerdings fatal, stünde die
Prüfung auf unerwünschte Nebenwirkungen mit H0
„Das Medikament ist nebenwirkungsfrei“
an. Hier
hilft nur die Durchführung einer alternativen
Kontrollstichprobe, die Fälle von Nebenwirkungen beinhaltet,
und das Ausrechnen des β, das möglichst gering sein
sollte. Sodann wird das Fehlerpotential minimiert, die Nebenwirkungen
zu übersehen, da β nun einmal das Risiko des
Übergehens von H1
ausdrückt.
Verfasser: Dipl.-BW (FH) Michael Zabawa
Erschienen: April 2020