: Frank Eggert
: Bernd Leplow, Maria von Salisch
: Deskriptive Statistik und Wahrscheinlichkeitstheorie Grundlagen der Generalisierbarkeit von Stichprobenergebnissen
: Kohlhammer Verlag
: 9783170322431
: 1
: CHF 20.30
:
: Grundlagen
: German
: 156
: Wasserzeichen/DRM
: PC/MAC/eReader/Tablet
: PDF/ePUB
In vielen Wissenschaften gilt die Anwendung von Statistik als Ausweis von Wissenschaftlichkeit und erlaubt (vermeintlich) allgemeingültige Aussagen. Um den Sinn und den bisweilen anzutreffenden Unsinn der hierfür verwendeten Inferenzstatistik zu verstehen, braucht man nicht so sehr Detailwissen über die vielen verfügbaren Tests und Schätzmethoden, sondern vor allem ein Verständnis für ihre konzeptuellen Grundlagen in der Deskriptiven Statistik und Wahrscheinlichkeitstheorie. Für all diejenigen, die genug vom sturen Lernen haben und stattdessen den Sinn von Statistik in der Wissenschaft verstehen wollen, ist dieses Buch geschrieben worden.

Professor Dr. phil. habil. Frank Eggert ist Professor für Psychologische Methodenlehre und Biopsychologie an der TU Braunschweig.

 

2          Theorie und Empirie


 

Wie wir gesehen haben, zielt Wissenschaft auf die Identifikation von grundlegenden Prinzipien und Gesetzmäßigkeiten. Diese sind abstrakt insofern, als sie von den Besonderheiten des Einzelfalls absehen.

Die Einzelfälle werden als Spezialfälle dieser Prinzipien angesehen, die ihre jeweilige Eigenart durch (u. U. vielfältige) im Hinblick auf die gerade betrachteten Prinzipien unsystematische weitere Einflüsse erlangen. Je komplexer, dynamischer und variabler die Einzelfälle aufgrund dieser weiteren Einflüsse werden, desto schwieriger ist es, die in ihnen wirkenden Prinzipien zu erkennen. In diesen Fällen ist es ebenfalls schwierig, anhand der Einzelfälle festzustellen, ob diese für oder gegen bestimmte vermutete Prinzipien sprechen. Es ist in solchen Fällen also weder einfach, eine Theorie für den Gegenstandsbereich zu entwickeln, noch, diese Theorie empirisch zu prüfen.

Theorien sind abstrakt formuliert und beziehen sich auf die Zusammenhänge zwischen Variablen. Die Variablen sind dabei die Formalisierung der interessierenden Merkmale und die betrachteten Modelle die Formalisierung der Beziehungen zwischen diesen Merkmalen.

Aufgrund der vielen, im Hinblick auf die gerade interessierenden Zusammenhänge als unsystematisch angesehenen zusätzlichen Einflüsse im Einzelfall benötigen wir für die Analyse von solchen Einzelfällen, um die quasi im »Rauschen« verborgenen Zusammenhänge zu identifizieren, möglichst viele Einzelfälle, um diese gemeinsam analysieren zu können. Darüber hinaus brauchen wir Modelle, die es uns erlauben, das »Rauschen« der Einzelfälle, also die unsystematischen Variationen von den systematischen Zusammenhängen zu trennen und letztere zu identifizieren und zu beschreiben.

Solche Modelle liefert uns die Statistik. Die Deskriptive Statistik erlaubt uns die zusammenfassende Analyse einer (möglichst großen) Anzahl von Einzelfällen. Die Inferenzstatistik hilft uns bei der Frage, ob die gefundenen Zusammenhänge sich von der Stichprobenebene auf die Populationsebene generalisieren lassen und damit eine gewisse Allgemeingültigkeit beanspruchen dürfen.

2.1       Worum geht es in der (empirischen) Wissenschaft?


In der empirischen Wissenschaft geht es umFragestellungen undHypothesen.

VonFragestellungen sprechen wir, wenn wir eine offene Frage stellen, für deren Antwort wir keine theoretisch begründete Vorhersage liefern (können). Wir untersuchen Fragestellungen, weil wir wissen wollen, wie die Antwort aussieht, und die Antwort hat keine weitere Funktion als eben die Antwort auf die Fragestellung zu sein. Fragestellungen entstehen oft aus praktischen Erfordernissen heraus und bekommen ihre Bedeutung dadurch, dass sie helfen, praktische Probleme zu lösen oder zumindest zu deren Lösung beizutragen.

VonHypothesen wollen wir dagegen wissen, ob wir sie als wahr oder falsch betrachten sollen. Hypothesen sind aus Theorien logisch abgeleitete Vorhersagen. Empirische Hypothesen sind aus Theorien logisch abgeleitete Vorhersagen über beobachtbare Sachverhalte. Dadurch, dass Hypothesen aus Theorien logisch hergeleitet sind, liefern uns Erkenntnisse darüber, ob wir eine Hypothese als wahr oder als falsch betrachten sollen, nicht nur Informationen über die (vermeintliche) Wahrheit oder Falschheit der Hypothese, sondern auch über die Gültigkeit der Theorie, aus der die Hypothese logisch abgeleitet wurde.

Wie weiter oben schon erwähnt, lassen sich Theorien als Systeme logisch aufeinander bezogener Aussagen verstehen. Ist eine Theorie gültig, d. h. die in ihr vorkommenden Aussagen sind alle wahr, so muss eine logisch aus der Theorie folgende empirische Aussage (eine empirische Hypothese) auch wahr sein. Finden wir nun Daten (d. h. Variablenausprägungen), die uns zu dem Schluss führen, die empirische Hypothese sei nicht wahr, so können wir schlussfolgern, dass die Theorie so nicht gültig sein kann. In diesem Fall werden wir uns der theoretischen Arbeit widmen, herauszubekommen, welche Annahmen aus unserer Theorie zur Ableitung der Hypothese notwendig sind, um damit die Menge der potentiell falschen Theorieteile einzuengen. Wir werden dann versuchen, für jede dieser Annahmen möglichst spezifische Hypothesen abzuleiten, um auf diese Weise herauszubekommen, welche der in unserer Theorie vorkommenden Aussagen falsch ist. Gelingt uns das, so können wir versuchen, die Theorie zu modifizieren, um sie dann erneuten empirischen Tests zu unterwerfen. Im Laufe dieses fortwährenden Prozesses von Theoriemodifikation und erneuter empirischer Testung – so unsere Hoffnung und Erwartung – nähern wir uns sukzessive immer

Deckblatt1
Titelseite4
Impressum5
Inhalt6
Geleitwort10
Vorwort12
1 »Was soll das alles?« – Eine Einleitung16
1.1 Worum soll es gehen?16
1.2 Warum sollten uns wissenschaftliche Aussagen interessieren?22
2 Theorie und Empirie30
2.1 Worum geht es in der (empirischen) Wissenschaft?31
2.2 Welche Vorstellung von der Welt steckt dahinter?33
2.3 Wie sind Theorie und Empirie miteinander verknüpft?34
3 Messwerte und Fehler44
3.1 Was macht man eigentlich, wenn man etwas misst?44
3.2 Welche Informationen enthalten Messwerte?48
3.3 Da ist doch ein Fehler?57
4 Populationen und Stichproben?68
4.1 Was ist eine Zufallsstichprobe und warum ist das so wichtig?69
4.2 Wo kommen die kleinen Stichproben her?69
5 Ergebnisse und Kennwerte76
5.1 Wie kann man die Ergebnisse in einer Stichprobe beschreiben?76
5.2 Was für Aspekte einer Stichprobe kann man durch einen Wert beschreiben?80
5.3 Warum betrachtet man Kennwerte?87
6 Schätzer und Parameter90
6.1 Was ist ein Schätzer und was schätzt er?90
6.2 Wie schätze ich einen Populationskennwert?91
6.3 Was ist eine Stichprobenverteilung eines Kennwerts?92
6.4 Was sind Stichprobenfehler?94
6.5 Was ist ein Populationsparameter?99
7 Parametrische Tests105
7.1 Ein »kleiner« Exkurs: Was ist ein Maximum-Likelihood-Schätzer?109
7.2 Wir konstruieren eine Stichprobenverteilung113
7.3 Kombiniere!116
8 Ein nicht-parametrischer Test121
9 »Ach so, das soll das alles!« – Ein Fazit128
9.1 Das Problem mit dem Messen129
9.2 Das Problem mit den Populationen131
9.3 Das Problem mit den Zufallsstichproben132
9.4 Und nun? Was tun?133
Stichwortverzeichnis und Gloss(e)ar136