Duisburg - Germany


Sie kann lediglich etwas darüber aussagen, ob ein bestimmter Satz aus anderen Sätzen abgeleitet werden darf, sie kann aber keine Aussagen über die Wirklichkeit selbst machen. Drei solcher Assoziationen nennt Hume: Cramer's V V F2 N q-1 Sie sind tautologische bzw.

Was ist der Z-Wert?


So betrachtet leuchtet das Schlussschema des Modus Ponens unmittelbar ein. Wenn die Ursache a die Wirkung b nach sich zieht 1.

Es ist jedoch Vorsicht geboten, Implikationen grundsätzlich als Kausalrelationen zu interpretieren, wie es oft fälschlich getan wird. Die Implikation sagt nur etwas aus über das gleichzeitige Vorliegen zweier Bedingungen, d. Tatsächlich werden wir im Zusammenhang mit der Problematik der Erklärung sehen, dass die Frage, ob 63 64 Kapitel 5 Deduktive Logik einer bestimmten Implikation ein kausaler Charakter zugeschrieben werden darf, grundlegend für den Wert wissenschaftlicher Theorien ist.

Seine formale Darstellung sieht so aus: Rein kombinatorisch ergeben sich zwei weitere Argumentformen, die berühmten Fehlschlüssen entsprechen.

Beim Fehlschluss der Bejahung des Konsequens wird eine hinreichende Bedingung unkorrekt für eine notwendige Bedingung gehalten. Kapitel 5 Deduktive Logik 65 5. Es hat nicht geregnet. Sprachlich werden Quantoren durch 'Alle Die Verneinung der obigen Allaussage wäre demnach "Nicht alle Pilze kann man essen. Alle Säugetiere sind Wirbeltiere. Alle Menschen sind sterblich. Sokrates ist ein Mensch. Wir werden im Weiteren jedoch auch Quasi-Syllogismen als Syllogismen bezeichnen.

Die obige Argumentform kann man als syllogistische Form eines Modus Ponens verstehen. Analog sieht die syllogistische Form des Modus Tollens wie folgt aus: Allen deduktiven Verfahren ist gemeinsam, dass durch sie kein neues Wissen dem schon vorhandenen zugefügt wird, lediglich werden die Implikationen des vorhandenen Wissens explizit gemacht.

Deduktion ist also eine Methode zur Entdeckung und Offenlegung 'versteckter', bzw. Typen von Sätzen im Argument: Das erste Unterscheidungsmerkmal bezieht sich auf die Sätze, die als Prämissen im Argument enthalten sind. Wenn wir uns mit Phänomenen der realen Welt befassen, können wir daher nicht mit analytischen Sätzen arbeiten.

Unter rein logischen Gesichtspunkten ist — im Gegensatz zu analytischen Sätzen — sowohl ihre Wahrheit als auch ihre Falschheit möglich. In der Regel beziehen sich synthetische Sätze auf Tatsachen, die sich in der realen Welt ereignen. Sätze wie "Der Ball fällt. Es ist nicht möglich, durch die Betrachtung des Satzes an sich, eine Aussage über seinen Wahrheitsgehalt zu machen.

Vielmehr bedarf es dazu gewisser Regeln, die eine Zuordnung bestimmter Beobachtungen zu den Wahrheitswerten bestimmter Sätze erlauben.

Diese Zuordnungsregeln werden auch als Korrespondenzregeln bezeichnet. Synthetische Sätze können aber nicht nur besondere sondern auch allgemeine Sätze sein, d. Auch über die Wahrheit eines allgemeinen synthetischen Satzes wird aufgrund bestimmter gemachter Beobachtungen und bestimmter Regeln, die diese Beobachtungen mit dem Satz in Beziehung setzen, entschieden.

Kapitel 6 Beweis, Erklärung und Prognose 69 Das zweite Unterscheidungskriterium bezieht sich auf die zeitliche Ausrichtung der Konklusion des Arguments. Das zweite Unterscheidungskriterium gelangt daher nur zu Anwendung, wenn es sich um ein Argument handelt, das als Prämissen synthetische Sätze enthält. Zeitliche Ausrichtung der Konklusion: Vergangenheit oder auf Zukunft Tabelle 6.

Sie sind tautologische bzw. Sie sind immer wahr, und ihre Wahrheit ergibt sich daraus, dass die Umformungen, die sie vornehmen, durch Regeln bestimmt sind. Axiome sind 'letzte', nicht weiter begründbare Sätze, die entweder schlicht festgelegt werden oder auf so genannten selbstevidenten Erkenntnissen beruhen, die durch den Gebrauch der Vernunft unmittelbar erkannt werden können.

Man spricht daher oft auch vom so genannten Offenbarungsmodell der Erkenntnis. Die Information des Satzes des Pythagoras ist allerdings schon allein in den ersten zwei Seiten der Axiome und Definitionen enthalten, nur ist sie nicht direkt sichtbar, zumindest nicht für uns mit unseren beschränkten kognitiven Fähigkeiten. Erklärt wird hierbei die Konklusion unter Bezug auf die Gültigkeit der Prämissen.

Alle schweren Gegenstände fliegen nach unten, wenn sie nicht festoder aufgehalten werden. Die Prämisse im obigen Argument können wir grob umgangssprachlich als Schwerkraft bezeichnen. Die Schwerkraft ist somit die Erklärung dafür, warum die Kreide nach unten gefallen ist. Münchhausen-Trilemma und seine drei möglichen "Lösungen" In Zusammenhang mit empirischen Theorien stellt uns das deduktive Vorgehen jedoch vor ein Problem, wollten wir den All-Satz, der im Beispiel die Prämisse darstellt, selbst begründen.

Die erste Möglichkeit besteht darin, dass wir die Wahrheit der zu begründenden Sätze auf die Wahrheit noch 'tieferer', d.

Zirkelschlüsse sind zumeist die Konsequenz unpräziser Definitionen und führen dadurch selbst wiederum häufig zu banalen Tautologien. Der Satz "Menschen mit einer internalisierten Wahlnorm beteiligen sich besonders häufig an Wahlen.

Dies ist deshalb der Fall, da die Zirkularität nicht immer ohne weiteres erkannt werden kann. Alle Planeten bewegen sich auf ellipsenförmigen Bahnen um die Sonne.

Mars ist ein Planet. Durch diese Ableitung, d. Doch inwiefern ist dies tatsächlich der Fall? Dann besagt das Gesetz, dass die Elemente der Klasse alle eine bestimmte Eigenschaft teilen. Das gilt natürlich auch für ein spezifisches Element der Klasse wie Mars. Es handelt sich bei dieser Ableitung zwar um keinen Zirkelschluss, aber um eine doch sehr banale Angelegenheit, die kaum ein weitergehendes Interesse verdient.

Doch mit Sicherheit handelt es sich beim ersten Keplerschen Gesetz um alles andere als eine Banalität, sondern um eine im Wortsinn welterschütternde Erkenntnis. Wodurch kommt dieser scheinbare Widerspruch zustande? Die Lösung besteht darin, dass es eine intensionale Bedeutung des Begriffs 'Planeten' gab, die 'vorkeplerisch', 'vorkopernikanisch', ja sogar 'vorptolemäisch' war.

Zumindest aber schon den Babyloniern war klar, dass es unter diesen Sternen eine Mehrheit gab, deren relative Position zueinander gleich blieb, die 'Fixsterne', aber auch einige wenige, deren relative Position sich am sonst so stetigen 'Firmament' ständig änderte. Auf die gleiche Eigenschaft bezieht sich der im Deutschen übliche historische Begriff für Planeten, 'Wandelsterne'. Insofern handelte es sich bei den Planetenbahnen um ein Phänomen, das der täglichen Wiederkehr der Sonne ähnlich war.

Die nahe liegende Lösung bestand darin, diese wiederkehrende Erscheinung durch eine kreisförmige Bewegung um die Erde zu erklären. Ebenso nahe liegend war es, die Erde als Fixpunkt anzunehmen, da dies ja der unmittelbaren Wahrnehmung entsprach. Geozentrisches Weltbild sowie kreisförmige Umlaufbahnen müssen als der 'natürliche' Ausgangspunkt jeglicher Astronomie betrachtet werden. Um 'die Phänomene zu retten' — im speziellen Fall unterschiedliche Bewegungsgeschwindigkeiten und Helligkeit der Planeten — war Ptolemäus gezwungen, als Zentrum der Bewegungen eben nicht die Erde, sondern einen davon abweichenden Punkt anzunehmen.

Bei Epizykeln handelt es sich um in Kreisbahnen eingeschriebene Kreisbahnen, wie sie z. Allerdings kann dieser historische Planetenbegriff streng genommen nur auf die fünf in der Antike bekannten Planeten, Merkur, Venus, Mars, Jupiter und Saturn angewandt werden und — wesentlich gravierender —nicht auf die Erde.

Diese 'unabhängige' Definition kann dabei oft in einer unzulänglichen oder sogar falschen Annahme über das Wesen der Objekte bestehen. Problematisch jedoch auch aus der Sicht der Empiristen bleibt die Begründung von gesetzesartigen Aussagen allgemeinen Sätzen.

Aber genauso ist dies mit einer Theorie kreisförmiger Planetenbahnen möglich. Die formale Struktur der Prognose entspricht der schon vom Beweis und der Erklärung her bekannten des allgemeinen Schlussschemas. Diese Prognose wurde am September von Galle und d'Arrest durch die Entdeckung des Neptun bestätigt. Solche Prognosen können durch die Realität nicht direkt bewiesen oder widerlegt werden, die relative Häufigkeit des Eintreffens bestimmter Ereignisse erlaubt aber in der langfristigen Betrachtung, solche probabilistischen Theorien und Gesetze als mehr oder minder gut bestätigt anzusehen.

Der Umgang mit probabilistischen Hypothesen wird ausführlich in Kapitel 9 vorgestellt. Bacons Programm war nicht philosophischer Art, sondern ein gesellschaftspolitisches. In dieser Sichtweise liegt das Moderne und Bahnbrechende Bacons8. Die Beobachtungen auf den Tafeln werden dann in drei Gruppen unterteilt: Die zweite Tafel enthält die Fälle, in denen ähnliche oder gleiche Bedingungen vorliegen, das Phänomen aber nicht 7 Bacon lebte von bis Als Essex des Hochverrats beschuldigt wurde, wechselte er allerdings die Partei.

Ironischerweise wurde Bacon ein Opfer seiner eigenen Experimentierlust: Er starb bei einem Kälteexperiment mit einem Huhn, das er mit Eis ausstopfte. Dabei holte er sich eine für ihn tödlich verlaufende Erkältung. Ganz im Sinne seines wissenschaftlichen Programms hatte sie sich dem Ziel des systematischen Wissenserwerbs verschrieben.

Durch die Charter von war die Royal Society die erste verfasste Körperschaft in der Geschichte, deren Aufgabe explizit in der Forschung lag. Kapitel 7 Induktive Logik und das Induktionsproblem 77 auftritt. Die dritte Tafel wiederum enthält die Fälle, in denen das Phänomen und die Bedingungen in verschiedenen Graden vorliegen.

Bacon ist vermutlich der erste neuzeitliche Denker, der ein ausgeklügeltes experimentelles Design beschreibt. Da die Eigenschaft d auch in der zweiten Beobachtung festzustellen ist, obwohl die Bedingung b dort nicht vorliegt, kann b nicht die Ursache von d sein.

Wenn d der Fall sein kann, ohne dass b und c vorliegen, wie in der zweiten Beobachtung in Tabelle 7. Meisterdetektiv I Man kann sich die Methode der Übereinstimmung am Vorgehen eines Meisterdetektivs veranschaulichen, der auf ähnliche Weise den Kreis der Verdächtigen in einem Mordfall einengt.

Ende Beispiel Kapitel 7 Induktive Logik und das Induktionsproblem 79 Ein Mangel der originalen Mill'schen Analyse besteht darin, dass er sich nur auf die 'positive' Ausprägung von Eigenschaften bezieht. Es ist zum Beispiel eine notwendige Bedingung, um Präsident der Vereinigten Staaten zu werden, dass man nicht während des Wahlkampfs ermordet wird.

Ähnlich ist es eine hinreichende Bedingung, um zu vermeiden, jemals Opfer eines Flugzeugabsturzes zu werden, einfach nie ein Flugzeug zu besteigen.

Dies wird im folgenden Beispiel in Tabelle 7. Damit wäre dann f eine hinreichende Bedingung für das Nicht-Vorhandensein von d. Wenn der Meisterdetektiv nicht gerade zuviel Oscar Wilde gelesen hat, dann geht er davon aus, dass man niemanden tötet, den man liebt. Die Liebe zu einem Menschen wird allgemein als hinreichender Grund angesehen, seinen Tod nicht zu wünschen. Die Menschen, die das Opfer geliebt haben, können somit aus dem Kreis der Verdächtigen gestrichen werden.

Literaturkenner merken, dass wir hier mehr der konventionellen englischen Tradition des Kriminalromans folgen. Durch die zweite Beobachtung in Tabelle 7.

Als einziger womöglich hinreichender Grund verbleibt demnach b. Methode der Differenz Die wichtigste, weil aufschlussreichste, Methode bestand für Mill in der 'Methode der Differenz'. Nehmen wir an, d kennzeichne die Entscheidung, an einer Wahl teilzunehmen. Danach behauptet die Beobachtung B1, dass eine Person bei schönem Kapitel 7 Induktive Logik und das Induktionsproblem 81 Wetter wählen geht, auch wenn Kandidaten und Programm der Parteien schlecht sind.

Ist allerdings auch noch das Wetter schlecht B2 , sinkt die Bereitschaft des potenziellen Wählers, sich überhaupt noch die Mühe zu machen, zum Wahllokal zu gehen, und er bleibt zu Hause. Daher sind beide Verfahren auch Ausschlussverfahren, die die richtige Lösung durch den Ausschluss logisch nicht möglicher Lösungen finden. Diese Vollständigkeit kann aber nur konstatiert und nie bewiesen werden. Nicht zulässige Annahme Tabelle 7.

Entweder gibt es eine weitere Bedingung, die d verursacht, die wir fahren: Für keinen einzelnen Bestimmungsfaktor können wir nach der Methode der Differenz ein Muster der Veränderungen erkennen, das sich gleichsinnig zum Muster der Veränderungen von d verhält. Diese Annahme behauptet, dass nichts geschieht, ohne dass es Gründe dafür gibt.

Das Design ist aber sehr wohl in der Lage, zwischen alternativen Theorien zu entscheiden, wenn eine von ihnen wahr sein muss und nur eine von ihnen wahr sein kann. Diesen wird unterstellt, dass sie die kausale Ursache des Auftretens der Eigenschaft seien.

Die Hypothesen folgen der Forschung zeitlich nach, sie gehen ihr nicht voraus. Die Hypothese über die verbleibende Ursache jedoch beruht immer nur auf einer endlichen Zahl von Beobachtungen.

Wenn tatsächlich nur eine endliche Zahl von Hypothesen zur Erklärung der Wirkung zur Verfügung stände und eine nach der anderen ausgeschaltet werden könnte, müsste die letzte verbleibende Hypothese die wahre sein. In Wirklichkeit aber gibt es immer unendlich viele mögliche Hypothesen, die vielleicht nicht sehr plausibel sein mögen, die aber dennoch logisch möglich sind. Die allgemeine Hypothese gründet sich daher bei Bacon nicht wirklich auf den Ausschluss aller anderen Hypothesen, sondern auf die Verallgemeinerung einzelner Beobachtungen.

Wenn ein Ereignis der Klasse a in allen beobachteten Fällen ein Ereignis der Klasse b nach sich zieht, ein Ereignis der Klasse c aber nicht, dann kann zwar nur überhaupt ein Ereignis der Klasse a und nicht der Klasse c die Ursache eines Ereignisses der Klasse b sein, aber dies muss nicht der Fall sein.

Wir nennen a nur dann eine Ursache von b, wenn jedes Ereignis der Klasse a ein Ereignis der Klasse b nach sich zieht. Diese Induktion ist aber logisch nicht zwingend. Hume ist ein Empiriker reinsten Wassers, alle Vorstellungen 'ideas' können seiner Meinung nach nur aus den Erfahrungen gewonnen werden.

Diese Assoziationen sind daher ein Mittel, die Konsistenz bzw. Drei solcher Assoziationen nennt Hume: Humes Philosophie kann daher leicht als Bankrotterklärung jeglicher systematischer empirischer Wissenschaft verstanden werden und wurde genau so auch häufig verstanden.

Aber der wissenschaftliche Glaube war der Situation gewachsen und hat den philosophischen Berg stillschweigend versetzt. Die erste sähe so aus: Die Annahme der Uniformität der Natur, dass die Zukunft der Vergangenheit ähnlich ist, ist grundlegend für jede noch so primitive Form intentionalen Handelns. Kapitel 7 Induktive Logik und das Induktionsproblem 85 Die eigentliche harte Nuss, die Hume der empirischen Wissenschaft zu knacken gegeben hat, ist daher die erste Interpretationsart.

Es gibt Naturgesetze und sie führen zu regulären Erscheinungen. Die Annahme der neuen Theorie konnte sich nicht als ein Schritt von der alten weg vollziehen, sondern nur als ein mutiger Sprung. Alle Planeten gehorchten der gleichen mathematischen Beziehung, aber über diesen Status der Beschreibung konnte Kepler nicht hinausgelangen.

Kausalität als gedankliche Brücke Inwiefern aber ist die Gravitation tatsächlich eine kausale Ursache der Planetenbahnen, oder, anders ausgedrückt, was meint man damit, wenn man sagt, dass die Kraft der Gravitation auf die Planeten wirkt?

Ist durch die bekannte Formel etwas ausgesagt über das Wesen dieser Kraft? Newton selbst hätte dies strikt verneint. So sagt Russell "Kepler ist ein höchst bemerkenswertes Beispiel dafür, wieviel man allein durch Geduld und ohne besondere Genialität erreichen kann" Russell Anziehung, Stoss oder Hinneigung gegen den Mittelpunkt nehme ich ohne Unterschied und unter einander vermischt an, indem ich diese Kräfte nicht im physischen, sondern nur im mathematischen Sinne betrachte Hervorhebung hinzugefügt.

Was aber ist dann die Gravitationskraft? Das Beispiel Newtons veranschaulicht die grundsätzliche Beschränkung jeglicher empirischer Kenntnis: Damit haben wir das ureigenste Wesen der Induktion erfasst: Finde für eine Anzahl von singulären Sätzen einen allgemeinen Satz, aus dem alle singulären Sätze deduktiv abgeleitet werden können. In my view it would be just as sensible for the two ends of a worm to quarrel. Beide philosophischen Traditionen lassen sich in ihren unterschiedlichen Konsequenzen in viele Bereiche hinein verfolgen In der Praxis war diese Unterscheidung allerdings nie so streng vorhanden, wie man vermuten könnte und wie das Zitat von Whitehead untermauert.

Die Deduktion ist ein Verfahren, das nicht zum Erkenntnisgewinn taugt. Sie kann lediglich etwas darüber aussagen, ob ein bestimmter Satz aus anderen Sätzen abgeleitet werden darf, sie kann aber keine Aussagen über die Wirklichkeit selbst machen.

Popper geht es nicht um eine systematische Anleitung zur Gewinnung von wissenschaftlichen Theorien über die Welt, wie es noch das Bestreben Bacons war, sondern um ein Kriterium, das die Beurteilung und den Vergleich schon formulierter und aufgestellter Theorien ermöglicht. Die ganze Induktionsproblematik entsteht nämlich nach Popper nur in dieser unzulässigen Vermischung von psychologischen Wie gelangt ein Wissenschaftler zu seinen Theorien?

Vermutlich aber wird sie einer Prüfung anhand der Realität nicht lange standhalten und so bald verworfen werden müssen. Eine Theorie gilt dann als falsifiziert, wenn aus ihr singuläre Sätze abgeleitet werden können, die in Widerspruch zu anderen singulären Sätzen stehen, die durch die unmittelbare Beobachtung der Wirklichkeit gewonnen wurden.

Das logische Schlussschema, dessen sich Popper bedient, ist also dasjenige des Modus Tollens. Diese Gesetze bestehen nur in den Theorien, sie kommen nicht in der Welt vor, im für die Theorie besten Fall gestaltet sich aber die Welt in ihren Tatsachen nach diesen Gesetzen. Verifikation, Falsifikation und Bewährung Gesetze können somit zwar nicht induktiv bewiesen bzw. Widersetzt sich eine Theorie solchen Prüfungen durch die Konfrontation mit den Tatsachen erfolgreich, so gilt sie zumindest als bewährt in dem Sinne, dass es bisher nicht gelungen ist, sie zu widerlegen.

Die Gültigkeit eines Gesetzes bzw. Gesetze verlieren im Popper'schen Sinne ihren ewigen, unverrückbaren Charakter. Die Annäherung an die Wahrheit im Sinne einer adäquaten Beschreibung der Wirklichkeit kann bei Popper also nur 'negativ' erreicht werden. Es werden nicht immer mehr 'wahre' Aussagen über die Welt gewonnen, sondern es werden immer mehr 'unwahre' Aussagen ausgesondert.

Die Ähnlichkeit zu Induktionslogikern wie Bacon und Mill ist dabei nicht zu übersehen. Während das Vorgehen von Bacon und Mill eher eine simultane Prüfung mehrerer Theorien und somit ein statisches ist, findet bei Popper eine sukzessive Abfolge von Theorienprüfungen statt.

Dies ist der dynamische Aspekt des Popper'schen Vorgehens. Popper zufolge gibt es die absolute, objektive Wahrheit in dem Sinne, dass es eine absolute, objektive Wirklichkeit gibt, d.

Man könnte auch sagen, die 'Wahrheitsdichte' aller verbleibenden Theorien steigt somit ständig an. Das wissenschaftliche Vorgehen sollte nicht darauf gerichtet sein, die eigenen Vermutungen zu bestätigen. Theorieentwicklung Nach Popper können Theorien an Beobachtungen scheitern. Wenn aus der Falschheit eines Basissatzes demnach die Falschheit der Theorie folgen soll, aus der er abgeleitet ist, so muss die Falschheit oder Wahrheit des Basissatzes eindeutig feststehen. Festsetzungen sind es somit, die über das Schicksal der Theorie entscheiden" Hervorhebung im Original; Popper Der Unterschied zum normalen Konventionalismus, wie ihn z.

Kritiker des Popper'schen Ansatzes gehen so weit, damit das falsifikationistische Programm als undurchführbar zu erklären. Denn Wahrnehmungen können fehlerhaft sein. Aber selbst wenn wir die Falschheit eines Basissatzes als sicher annehmen können, stehen wir vor einem Problem.

Der Teil der Theorie, der als widerlegt betrachtet werden soll, ist gleichzeitig der Teil, der abgeändert werden muss. Hilfsannahmen sollen nach Popper natürlich nicht dazu dienen, die Theorie zu immunisieren, sondern er betrachtet sie nur als zulässig, "wenn durch deren Einführung der 'Falsifizierbarkeitsgrad' des Systems … gesteigert wird; in diesem Fall bedeutet die Einführung der Hypothese eine Verbesserung: Das System verbietet mehr als vorher" Popper Je mehr die Theorie verbietet, desto präzisere Aussagen macht sie über die Wirklichkeit.

Lässt man zu, dass eine Theorie durch die Hinzunahme weiterer Hilfsannahmen ad hoc passend gemacht wird, falls sie in Widerspruch zur Wirklichkeit gelangt, dann sinkt damit ihr empirischer Gehalt auf Null. Es soll aber noch einmal betont werden, dass es nicht die alte Theorie ist, die durch die zusätzlichen Annahmen überlebt, sondern es ist die neue, aus der alten entstandene Theorie, die sich wieder ganz von vorne im Prozess der Prüfung zu bewähren hat.

Nach Lakatos bestehen viele Theorien, und gerade die bedeutendsten, meist aus einem 'harten Kern' und einem 'Schutzgürtel' von Hilfsannahmen. Die 'Rettung' der Theorie kann durch ein Passendmachen des Kerns oder einer oder mehrerer der Hilfsannahmen an die Beobachtungen ermöglicht werden.

Eine der Regeln dieser Heuristik besteht zum Beispiel darin, nie den harten Kern der Theorie, sondern nur den Schutzgürtel abzuändern. Lässt sich eine Theorie nicht mehr aufrechterhalten, ohne auch den harten Kern anzugreifen, so kann man dies als den Beginn eines neuen Forschungsprogramms verstehen. Sie sind 'riskante' Schlüsse, da sie immer mit dem Risiko behaftet sind, falsch zu sein.

Dies liegt daran, dass die Menge der von uns gemachten Beobachtungen immer nur eine Teilmenge aller möglichen Beobachtungen darstellt.

Diese Teilmenge nennen wir Stichprobe. Die Menge, auf die wir hin verallgemeinern wollen, nennen wir die Grundgesamtheit. Wahrscheinlichkeiten kommen auf zweierlei Weise ins Spiel. Im ersten Fall sagt uns die Wahrscheinlichkeit etwas darüber aus, wie gerechtfertigt es ist, einen bestimmten Satz für wahr zu halten, wir nennen diese Wahrscheinlichkeit daher auch epistemisch.

Wir wollen uns dies an einigen Beispielen enumerativer induktiver Schlüsse klarmachen. Alle Kaffeebohnen aus einer Stichprobe, die wir einem Sack mit Kaffeebohnen entnommen und untersucht haben, haben die Güteklasse A.

Solche Aussagen sind unter anderem in den Naturwissenschaften weit verbreitet. Da wir uns im Zusammenhang mit verallgemeinerten Aussagen bisher nur auf solche Allaussagen bezogen haben, stammten auch unsere Beispiele der vorhergehenden Kapitel überwiegend aus den Naturwissenschaften, insbesondere aus dem Bereich der klassischen Mechanik.

Bestimmte Komplexe solcher Bedingungen lassen sich in den Naturwissenschaften mit der Methode der Differenz erkennen. Dies scheint für uns in der Regel ein starkes Argument zu sein, den Faktor als Bestandteil einer kausalen Verknüpfung zwischen sich und der interessierenden Eigenschaft zu betrachten.

Das Galileische Gesetz des freien Falls z. Einzelne Faktoren lassen sich nicht isolieren, d. So wie der Nebel als 'Störfaktor' die Umrisse des Hauses vor uns verwischt, so verwischen die nicht kontrollierten anderen Einflussfaktoren die klare Struktur des Zusammenhangs zwischen dem isolierten Einflussfaktor und der abhängigen Variablen. Allerdings bleiben auch durch den Nebel die Konturen des Gebäudes erhalten. Die allgemeine Form des induktiven Arguments ist: Z Prozent der F in der Stichprobe sind G.

Während also Z für verschiedene Argumente verschiedene Werte annehmen kann, und damit die frequentistische Wahrscheinlichkeit, dass ein beliebiges F ein G ist, ist das Problem der epistemischen Wahrscheinlichkeit für alle Argumente sehr ähnlich.

Statistischer Syllogismus Der Zweck induktiver Argumente besteht in der Begründung ihrer Konklusion, so dass diese wiederum in anderen Argumenten als Prämisse verwendet werden kann. Z Prozent aller F sind G.

Die Wahrscheinlichkeit, mit der die Implikation der Prämisse zutrifft, taucht daher im Argument nicht in der Konklusion auf, sondern bezieht sich auf das Argument selbst, d. Man könnte diese Argumentform in der Darstellung von der üblichen z. Offensichtlich kann das Popper'sche Falsifikationskriterium nicht zur Prüfung probabilistischer Aussagen angewandt werden. Popper führt das Falsifikationskriterium in Bezug auf Allaussagen ja ein, weil diese zwar nicht verifiziert, aber immerhin falsifiziert werden können.

Probabilistische Aussagen können nun weder verifiziert noch falsifiziert werden. Popper nennt diese Art des Vorgehens 'praktische Falsifikation' Popper Nach Fisher sollte eine statistische Hypothese, die Praktische Falsifikation 98 Kapitel 9 Probabilistische Hypothesen und die Logik eines statistischen Tests üblicherweise als Nullhypothese H0 bezeichnet wird, dann abgelehnt werden, wenn Beobachtungen gemacht werden, die nach der Hypothese relativ zu anderen Beobachtungen nur mit geringer Wahrscheinlichkeit auftreten dürften.

Das Ereignis e wird beobachtet. Doch oft ist es alles andere als eindeutig, wie eine solche Teststatistik zu konstruieren ist. Betrachten wir das folgende Beispiel: Das tatsächlich aufgetretene Muster beim Zerspringen des Ziegels muss als ein nahezu unmögliches Ereignis angesehen werden, d. Wir würden daher möglicherweise daraus folgern, dass die Anordnung der Splitter, da sie nicht durch Zufall zustande gekommen sein kann, kausal verursacht sein muss.

Die obige Argumentform könnten wir auch als teleologischen Fehlschluss bezeichnen, und wir würden in der Geschichte der Menschheit schnell fündig werden, wenn wir nach Fällen suchten, in der sie angewandt wurde. Doch das Ziegelbeispiel zeigt, wie unangemessen dieser Schluss ist. Jede Anordnung der Ziegelsplitter wäre nahezu unmöglich gewesen und hätte daher zur Ablehnung der Zufallshypothese führen müssen. Es kann also nicht damit getan sein, eine Hypothese allein deswegen abzulehnen, weil ein beobachtetes Ereignis im Lichte der Hypothese als unwahrscheinlich einzustufen ist.

Die Wahrscheinlichkeit, mit der wir auf ein derartiges 'unwahrscheinliches' Ereignis treffen würden, wäre in unserem Beispiel nämlich sehr hoch, um genau zu sein, wäre sie 1, d. Leider wird diese Regel in der empirischen Praxis oft missachtet. Ende Beispiel Die Wahrscheinlichkeit des Auftretens des unwahrscheinlichen Ereignisses e ist gleichzeitig die Wahrscheinlichkeit, mit der wir die Nullhypothese aufgrund von e ablehnen, obwohl sie zutrifft, denn genau in dem durch die Wahrscheinlichkeit genannten Umfang tritt e ja ein, wenn die Nullhypothese zutrifft.

Daher nennen wir diese Wahrscheinlichkeit auch Irrtumswahrscheinlichkeit. Ähnlich argumentiert Popper, wenn er umgekehrt die Fähigkeit einer Theorie, riskante d.

Nehmen wir an, wir haben die Hypothesen "Männer wählen häufiger konservative und rechte Parteien als Frauen. Die Vorgehensweise bei einem statistischen Test erinnert an die Struktur eines indirekten formalen Beweises. Nullhypothese ermöglicht Verwendung einer Teststatistik Der Grund, warum wir uns bei statistischen Tests meistens auf die Prüfung der Nullhypothese beziehen, ist einfach anzugeben.

Die Nullhypothese verkörpert die Annahme, dass beobachtete Unterschiede auf zufälligen Schwankungen beruhen. Daher können wir diese Abweichungen als Teststatistiken einsetzen, denn die wichtigste Eigenschaft einer Teststatistik besteht darin, dass ihre Wahrscheinlichkeitsverteilung bekannt ist. Einen Schritt in diese Richtung geht die Weiterentwicklung der Logik eines Signifikanztests durch Neyman und Pearson und so genannte bayesianische Methoden der Hypothesenprüfung.

Kapitel 10 Erklären und Verstehen 10 Erklären und Verstehen Wenn wir bisher allgemein von Erklärungen gesprochen haben, so verstanden wir dabei meist kausale Erklärungen, ohne dies explizit hervorzuheben. Die ersten Erklärungen von Naturphänomenen wie Stürmen, Gewittern, aber auch den Bewegungen der Planeten griffen immer auf Willkürakte bestimmter Gottheiten zurück.

Auch Kleinkinder entwickeln ihr Kausalitätsschema im frühen Alter durch die Entdeckung, dass sie selbst in der Lage sind, manipulativ in ihre Umwelt einzugreifen Piaget Ebenso gehen so genannte emergenzphilosophische Anschauungen davon aus, dass ein innerer Zusammenhang zwischen Ursache und Wirkung besteht. Die Wirkung ist dabei immer schon in der Ursache enthalten als deren Potenzial, sich zu verwirklichen. Unter anderem als Folge davon entwickelt sie sich erst zur Naturwissenschaft.

Allerdings behielten gewisse Konzepte auch der neuzeitlichen Wissenschaft oft einen animistischen Zug, so wie der ominöse Begriff der Kraft, die sich zuweilen bis ins Entzauberung der Welt Kapitel 10 Erklären und Verstehen ter technischer Verfahren zu stellen, die ihrerseits der Förderung des allgemeinen Wohlstands dienen sollen. Dadurch gewinnt unsere Erklärung an Tiefe, und wir gewinnen ein weitergehendes Verständnis für das Wirken des kausalen Mechanismus.

Der Prozess der Rückführung auf tiefere Ebenen findet jedoch kein logisches Ende. Dies ist diejenige des sinnhaften menschlichen Handelns, wie es z. Max Weber verstanden hat Weber Wir können Handlungen erklären, indem wir auf den Zweck verweisen, der mit der Handlung offensichtlich oder vermutlich verfolgt werden sollte.

Eine Schlüsselrolle für diese Art von Erklärungen spielt der so genannte praktische Syllogismus. Der praktische Syllogismus ist keine logische Argumentform. Wenn wir wissen, dass eine bestimmte Person gewisse Ziele verfolgt und dass diese Person glaubt, dass nur ein bestimmtes Mittel dieses Ziel verwirklichen kann, dann vermuten wir, dass die Person dieses Mittel einsetzen wird.

Um das konkrete Mittel, die konkrete Handlung korrekt vorauszusagen, muss die Handlung die einzige sein, die zur Erreichung des Ziels geeignet ist. Erklärungen in Argumentform werden auf zweierlei Weise angewandt. Der Sinn, in dem wir sie bisher erläutert haben, war der folgende: Eine plausible Erklärung könnte sein, dass es heute Nacht geregnet hat.

Gerade bei Handlungen suchen wir häufig nach der plausibelsten Erklärung. Erklärung der Konklusion aus Vorliegen der Prämissen 2. Die Suche nach dem Motiv ist gleichzusetzen mit der Suche nach der plausibelsten Erklärung. Ist das Opfer eine schöne, junge Frau, von der wir zudem erfahren, dass sie ein bewegtes Liebesleben hatte, dann können wir uns gut vorstellen, dass Eifersucht ein Motiv gewesen sein könnte.

Die einfachste mögliche Aussage, die man auch als elementar oder atomar bezeichnen kann, beruht auf der Zuweisung eines Merkmals zu einem Objekt, das wir deshalb auch einen Merkmalsträger nennen.

Der Satz 'Johannes hat blaue Augen. Eigenschaften nennen wir in der Statistik auch Variablen. Kapitel 11 Die Urliste, absolute und relative Häufigkeiten Die erste Stufe der Verallgemeinerung ist die Zusammenfassung der einzelnen Absolute und relative Häufigkeitsverteilung Beobachtungen zu einem Gesamteindruck. Dazu bilden wir die absoluten und relativen Häufigkeiten der Merkmalsausprägungen in einer Gruppe.

Relative Häufigkeiten können auch in Prozent angegeben werden. Den entsprechenden Wert erhält man durch Multiplikation der relativen Häufigkeit mit Die absolute und relative Häufigkeitsverteilung für unser Beispiel sind in der folgenden Tabelle zu sehen. In diesem Fall muss aber unbedingt die Fallzahl, auf die sich die relativen Häufigkeiten beziehen, mit angegeben werden.

Üblicherweise wird die Fallzahl mit n bezeichnet. Streng genommen ist die Häufigkeitsverteilung der Merkmalsausprägungen der Aggregation von individuellen MerkmalsausMitglieder einer Gruppe keine echte Verallgemeinerung, sondern lediglich eine prägungen aggregierte Darstellung der individuellen Sachverhalte. Dabei wird zwar vom Einzelindividuum abstrahiert, aber die Häufigkeitsaussagen beziehen sich immer auf eine spezifische Gruppe, die dadurch definiert ist, dass sie sich genau aus den betreffenden Einzelfällen zusammensetzt.

Wenn wir von Variablen in einem ganz allgemeinen Sinn sprechen, d. X oder Y zu verwenden. Werte oder Ausprägungen einer Variablen werden mit kleinen Buchstaben dargestellt.

Um die Zuordnung eines Variablenwertes zu einem bestimmten Objekt zu zeigen, werden die Objekte einfach durchnummeriert und die Werte mit der Zahl, die dem entsprechenden Objekt zugeordnet ist, als Index versehen. In unserem Beispiel von oben ist Peter die dritte Person in der Urliste. Peter hat braune Augen. In unserem Beispiel hat die Variable 'Augenfarbe' vier mögliche Ausprägungen, nämlich 'blau', 'grau', 'grün' und 'grau'.

Die Anzahl aller vorkommenden Ausprägungen wird mit k bezeichnet. Sie vergleicht die Werte xi und aj und nimmt den Wert 1 an, wenn sie gleich, den Wert 0, wenn sie verschieden sind. Kapitel 11 Die Urliste, absolute und relative Häufigkeiten Kasten Sammlung formaler Notationen X Variablenname 1, 2, Den Ausprägungen der Variablen wird dabei auf einer horizontalen Achse ein bestimmter Ort zugewiesen, und die Häufigkeit der entsprechenden Ausprägung wird durch die Länge eines senkrechten "Stabes" wiedergegeben, dessen unteres Ende sich auf der horizontalen Achse befindet.

Stabdiagramm Säulendiagramm Abbildung Bar Charts sind die wohl am weitesten verbreitete Form von Diagrammen. Kapitel 12 Die grafische Darstellung von Häufigkeitsverteilungen Abbildung Die relativen Häufigkeiten entsprechen dabei dem Flächenanteil bestimmter Kreissegmente, bzw. Die Variable "Anzahl der Wahlberechtigten" für die Gruppe "Bundestagswahlkreise " hat genauso viele Ausprägungen wie es Fälle gibt, d. Eine tabellarische Darstellung würde sich über mehrere Seiten erstrecken und kaum besonders interessante Gesamteindrücke vermitteln.

Daher ist die Tabelle hier zur Illustration auch nur ausschnittsweise dargestellt. Kapitel 12 Die grafische Darstellung von Häufigkeitsverteilungen Tabelle Anzahl der Wahlberechtigten in Wahlkreisen Nr. Der Wahlkreis mit den meisten Wahlberechtigten hat davon mehr als doppelt so viele wie der Wahlkreis mit den wenigsten Wahlberechtigten. Man kann aber kaum erkennen, wie sich die übrigen Werte innerhalb dieser Bandbreite verteilen.

Auch ein Stabdiagramm hilft nur wenig weiter. Allerdings lässt sich zumindest eine gewisse Häufung von Werten innerhalb bestimmter Bereiche erkennen, da dort die Dichte der Stäbe höher ausfällt. Trotzdem bleibt auch dieser Eindruck nur vage und kann kaum zu einer präzisen Beschreibung der Häufigkeitsverteilung herangezogen werden. Darüber hinaus gibt es Messfehler und Messungenauigkeiten, die sich nie hundertprozentig ausmerzen lassen.

Die Variable "Wahlberechtigte" teilt mit kontinuierlichen Variablen diese Eigenschaft der übergenauen Messung, obwohl die Variable selbst natürlich diskret ist, da es ja nur eine bestimmte Anzahl von Wahlberechtigten geben kann.

Gruppierte Daten — Wahlberechtigte Wahlberechtigte Häufigkeit 1 0,3 13 4,0 25 7,6 34 10,4 45 13,7 39 11,9 36 11,0 30 9,1 35 10,7 28 8,5 18 5,5 17 5,2 6 1,8 1 0,3 ,0 Gesamt Prozent Diese Zusammenfassung zu Gruppen ist logisch nur für Daten möglich, die min- Histogramm destens auf Ordinalskalenniveau erhoben worden sind, sinnvoll ist sie jedoch erst ab Intervallskalenniveau.

Histogramme genügen dem so genannten Prinzip der Flächentreue, d. Die "gröbere" Messung durch Gruppierung der Daten erleichtert zwar manche Darstellung, ist aber immer auch mit einem Informationsverlust verbunden. Während die Anordnung der Säulen in Säulendiagrammen beliebig ist, ist sie in einem Histogramm festgelegt. So genannte Stamm-Blatt Diagramme englisch: Stem-Leaf Diagrams versuchen, einen Teil der Information, der durch die Gruppierung in einem Histogramm verloren geht, zu erhalten.

In unserem Beispiel der Wahlberechtigten in einem Wahlkreis waren dies die vollen Zehntausender, die in einer Zahl enthalten sind. Diese kann sowohl für die absoluten Häufigkeiten als auch für die relativen Häufigkeiten berechnet werden. Formal lässt sich die kumulierte Verteilung — analog zum Verfahren bezüglich der einfachen absoluten Häufigkeit — mit Hilfe einer Vergleichsfunktion V definieren.

Dies gilt auch dann, wenn die der kumulierten Häufigkeitsverteilung zugrunde liegende einfache Häufigkeitsverteilung diskreter Natur war. Nehmen wir an, die folgende Tabelle gibt für eine Gruppe von untersuchten Ehepaaren die Anzahl der Kinder an. Der Anteil der Familien mit höchstens zweieinhalb Kindern ist nämlich gleich dem Anteil der Ehepaare mit höchstens zwei Kindern.

Die Funktion verläuft daher stufenförmig und wird auch als Treppenfunktion bezeichnet. Die Funktion besteht allerdings nur aus den waagrechten Teilen der Treppe. Auch wenn die Menge der Argumentwerte das ganze Kontinuum umfasst, so ist die Menge der Funktionswerte weiterhin diskret, da als Funktionswerte insgesamt nur die an den Sprungstellen auftretenden Werte auftauchen.

Im Gegensatz zu einfachen Häufigkeiten kann man kumulierte Häufigkeiten daher gut grafisch darstellen, wenn es sehr viele verschiedene Ausprägungen einer Variablen gibt. Die Gruppierung von Daten ist also in Bezug auf kumulierte Häufigkeiten wenig sinnvoll.

Die kumulierten Häufigkeiten unseres Beispiels bezüglich der Wahlberechtigten in einem Bundestagswahlkreis sind in der folgenden Tabelle aufgeführt.

Absolute und relative kumulierte Häufigkeitsverteilung Wahlberechtigte kumulierte absolute Häufigkeiten kumulierte relative Häufigkeiten d 1 0, d 2 0, d 3 0, d 4 0, d 5 0, d 6 0, Die Komplexität der Daten ist nur unbedeutend reduziert, so dass es immer noch nicht möglich ist, das Wesen der Daten in ihrer Gesamtheit zu erfassen. Man sieht schnell ein, dass eine solche Unterhaltung denkbar mühsam und ineffektiv wäre.

Lageparameter sind Zahlen bzw. Es gibt verschiedene Möglichkeiten "typische Vertreter" einer Menge von Datenwerten zu bilden. Modus auch Modalwert genannt Der Wert einer Datenmenge, der am häufigsten vorkommt.

Nominalkategorisierte Variablen haben entweder einen bestimmten Wert, oder sie haben ihn nicht. Im Gegensatz zu anderen Lageparametern repräsentiert er nicht die Gesamtheit der einzelnen Werte und kann daher am wenigsten als der "mittlere" Vertreter einer Gruppe betrachtet werden.

Wir gehen davon aus, dass der Begriff "Mitte" in einem solchen Fall eindeutig in einem räumlichen Sinn bestimmt ist, so dass wir den Median wie folgt definieren können. Median Der Wert in der Mitte einer geordneten Datenmenge. Der Wert einer geordneten Datenmenge, der von mindestens 50 Prozent der Datenwerte nicht überschritten und von mindestens 50 Prozent der Datenwerte nicht unterschritten wird.

Ist die Anzahl der Datenwerte ungerade, so ist dieser Wert eindeutig bestimmt. Der Median ist dann der Wert in der Mitte zwischen diesen beiden Werten.

Die übliche Schreibweise für den Mittelwert ist dann x. Man spricht daher auch von der Schwerpunkteigenschaft des Mittelwerts. Voraussetzung für die Berechnung des arithmetischen Mittels: Dies kann demonstriert werden, wenn für einige der Datenreihen, für die schon der Median berechnet wurde, nun auch der Mittelwert ermittelt wird. Sind die Werte einer Datenreihe hingegen symmetrisch um die Mitte verteilt, d.

Der Schlichter wird nun versuchen, den Wert vorzuschlagen, den er für einen guten Kompromiss hält, also den Wert, der die Gesamtheit der unterschiedlichen Vorstellungen aus der Sicht des Schlichters noch am ehesten wiedergibt.

Vier der fünf Mitglieder aber sprechen sich für einen niedrigeren Betrag aus. Handelt es sich um eine Gesellschaft mit einem kleinen Prozentsatz von exorbitant reichen Leuten, während das Gros der Bevölkerung möglicherweise an der Armutsgrenze liegt, so kann sich ein ganz annehmbares mittleres Einkommen ergeben.

Dabei werden Daten aus den Randbereichen der Verteilung ignoriert, z. Auch formale Bedingungen können allerdings rein sprachlich ausgedrückt werden.

Insbesondere können wir diese Bedingungen so interpretieren, dass die Lageparameter gewisse Differenz- bzw. Die allgemeine Formulierung dieser Bedingung lautet: Die Summe dieser Distanzfunktion bezüglich des Wertes z ist nichts anderes als die Anzahl der Fälle, die einen anderen Wert als z haben. Bezüglich des Median gilt: Hingegen hat der Abstand zu z' für alle n — m Fälle zur Rechen im Vergleich zu z um den Betrag d abgenommen. Solange z also nicht gleich dem Median ist, kann der Wert der Distanzfunktion weiter verringert werden, indem sich z zur Mitte hin bewegt.

Die Summe der quadratischen Abstände der Einzelwerte zu z ist also dann minimal, wenn z gleich dem Mittelwert ist. Nehmen wir an, wir sollten für einen bestimmten Einzelfall der Datenmenge seinen Wert schätzen ohne Kenntnis seiner wahren Ausprägung. Die oben angegebene Differenzbzw. Da die Lageparameter die oben angegebenen Distanzfunktionen minimieren, gilt dann logischerweise das Gleiche für die entsprechende Funktion des Schätzfehlers.

Wir werden später gute Argumente aus der Wahrscheinlichkeitstheorie kennen lernen, warum dies tatsächlich empfehlenswert ist. Der Abstand zwischen diesen beiden Werten wird als Spannweite englisch Range bezeichnet. Weit von den "normalen" Werten abweichende Werte an den Rändern erhöhen die Spannweite unter Umständen dramatisch und erwecken den nicht berechtigten Anschein von extremer Variation der Werte. Um dieses Vorgehen klarer und eindeutiger beschreiben zu können, müssen wir kurz das Konzept der Perzentile oder p-Quantile einführen.

Ein beliebiges p-Quantil wird formal durch xp gekennzeichnet. Der Wert von p liegt daher immer zwischen 0 und 1. Man spricht in diesem Fall von der Fünf-Punkte-Zusammenfassung. Eine grafische Methode zur Darstellung derselben sind so genannte Boxplots, die daher gut geeignet sind, sich einen ersten Eindruck über Variablen zu verschaffen. Nehmen wir an, die ursprünglichen Variablenwerte hätten Längen in m gemessen. Sie reichen jedoch noch lange nicht aus, um all die Merkmale einer Verteilung zu erfassen, wie sie z.

Wie unterschiedlich Verteilungen aussehen können, haben wir in den unten stehenden Abbildungen in drei Varianten dargestellt. Symmetrische Verteilung Abbildung Rechtsschiefe oder linkssteile Verteilungen wie in der zweiten Abbildung haben eine Häufung von Werten auf der linken Seite, während die Werte auf der rechten Seite weniger häufig vorkommen.

Durch die Verschiedene Berechnungsformeln für die dritte Potenz bleiben die Vorzeichen der Abweichungen erhalten. Ufert die Vertei- Schiefe lung nach rechts aus, d. Umgekehrt bekommt die Schiefe einen negativen Wert zugewiesen beim Vorliegen einer linksschiefen oder rechtssteilen Verteilung. Bezieht man überdies den Modus in den Vergleich mit ein, lassen sich Lageregeln formulieren.

Beim Vergleich der Schiefen zweier Verteilungen ist daher immer sicherzustellen, dass diese auf dieselbe Weise gemessen wurden. Unabhängig von der konkret angewandten Formel zur Berechnung der Schiefe gilt jedoch natürlich immer, dass die Vorzeichen dieselben sind. Wert der Schiefe Symmetrische Verteilungen: Schiefe 0 Linkssteile Verteilungen: Sie können breitgipflig oder schmalgipflig sein, d. Breitgipflige Verteilung Abbildung Schiefe und Wölbung beziehen sich hingegen mehr auf die Verteilung der Häufigkeiten der einzelnen Ausprägungen.

Es handelt sich dabei um aggregierte Daten. Dieses Sechstel der Bevölkerung erzielt allerdings ca. Jeder vorkommenden Merkmalsausprägung wird dabei ein Koordinatenpaar zugeordnet. Die Koordinate auf der horizontalen Achse entspricht dem Anteil der Fälle, deren Merkmalsausprägungen kleiner oder gleich der kritischen Merkmalsausprägung sind.

Lorenzkurve Jeder Merkmalsausprägung xi wird ein Koordinatenpaar ui, vi zugeordnet mit den folgenden Eigenschaften. Um den Konzentrationseffekt anhand der Lorenzkurve zu verdeutlichen, seien als Illustration: Vier fiktive Gesellschaften Beispiele vier fiktive "Gesellschaften" mit jeweils 10 Mitgliedern betrachtet, die folgende Einkommensverteilung haben sollen. Mit steigender Konzentration nimmt daher auch die Fläche zwischen der Diagonalen und der Lorenzkurve zu.

Das Zweifache der Fläche zwischen der Diagonalen und der Lorenzkurve. Da die Fläche zwischen der Diagonalen und der Lorenzkurve gleich der Differenz der Fläche unter der Diagonalen und der Fläche unter der Lorenzkurve ist, kann der Gini-Koeffizient auch als das Zweifache dieser Differenz berechnet werden. Jede dieser Teilflächen besteht jeweils aus einem Rechteck und einem Dreieck.

Der Teilabschnitt zwischen ui und ui — 1 besteht demnach aus dem Rechteck mit der Breite ui — ui — 1 und der Höhe vi — 1 und einem Dreieck mit derselben Breite ui — ui — 1 und der Höhe vi — vi — 1.

Damit die maximal mögliche Konzentration n den Wert 1 erhält, wird der Koeffizient normiert. Deshalb wird m zumeist mit 1 gleichgesetzt.

Dazu nehmen wir vereinfachend an, dass innerhalb der Gruppen keine wesentliche Konzentration besteht. Gini-Koeffizient für Verteilung des Bruttosozialproduktes über Ländergruppen Länder GDP Bevölkerung vi ui Low-income Nations 0, 0, Middle income nations 0, 0, High income nations 1, 1, Summe Aus der Tabelle können wir jetzt unmittelbar herauslesen, dass z. Höchste Abstraktions- Wissenschaftlich interessant sind Aussagen immer dann, wenn sie sich auf das ebene: Aussagen über Zusammenhänge Verhältnis mehrerer Eigenschaften zueinander beziehen, wie z.

Urliste geordneter Paare Der Einfachheit halber werden wir uns im Folgenden vorerst auf die Beziehungen zwischen zwei Merkmalen beschränken. Wenn wir die Variablen allgemein als X und Y bezeichnen und die Ausprägungen der Variablen des i-ten Objekts mit xi und yi, dann besteht die Urliste aus einer Menge von geordneten Paaren xi, yi.

Kapitel 14 Bivariate Zusammenhänge Tabelle Solange die Anzahl der Merkmalsausprägungen überschaubar ist, lassen sich gemeinsame Häufigkeitsverteilungen in so genannten Kontingenztabellen darstellen. Spaltensummen, die auch Randverteilungen genannt werden. Die Randverteilung der Zeilenvariablen wird durch die Häufigkeiten hi.

Durch den Punkt wird angezeigt, dass die Ausprägungen der an dieser Stelle indizierten Variablen alle so behandelt werden, als ob sie nicht unterschieden werden könnten. Kapitel 14 Bivariate Zusammenhänge Abbildung Dabei stellen wir die forschungsrelevante Frage: Im Falle einer echten Kausalhypothese können wir sogar von einer Ursacheund einer Wirkungsvariablen sprechen. Daher fassen wir die Säulen der Befragten aus den neuen und den alten Bundesländern bezüglich jeder Partei zu einem Block zusammen.

Dies nennt man die bedingte relative Häufigkeitsverteilung. Als bedingte relative Häufigkeitsverteilung der Wahlabsicht unter der Bedinhängige, Y Spalten für gung einer bestimmten regionalen Herkunft ergibt sich die folgende Tabelle.

Werden sie in Prozentzahlen dargestellt, werden sie daher auch Zeilenprozent genannt. Ob man die unabhängige Variable in der Zeile oder in der Spalte anordnet, hängt von persönlichen Vorlieben ab. In der Literatur sind beide Vorgehensweisen üblich. Entscheidend ist, dass die abhängige Variable innerhalb der durch die unabhängige Variable gebildeten Untergruppen prozentuiert wird.

Ist die bedingende bzw. Natürlich hätte man diese Verhältnisse auch an den absoluten Zahlen erkennen können, da in unserem speziellen Fall beide Teilgruppen die gleiche Anzahl von Fällen beinhalten. Für die grafische Darstellung von bedingten relativen Häufigkeiten eignen sich Gestapeltes Säulendiagramm gestapelte Säulendiagramme. Die Häufigkeitstabelle besteht dann aus nur vier Zellen und wird daher auch Vierfeldertabelle genannt. Streng genommen ist diese Darstellung nicht ganz korrekt, da gewisse Fälle, nämlich alle Begegnungen zwischen den beiden Mannschaften, doppelt gezählt werden, doch für den Zweck der Illustration soll hier dieser kleine Schönheitsfehler der Tabelle ignoriert werden.

Zusätzlich zu den absoluten Häufigkeiten der einzelnen Zellen sind in der Tabelle unter diesen die Zeilenprozente angegeben. Dies ist nicht überraschend, da es sich ja um die Auswahl der beiden erfolgreichsten Mannschaften in Deutschland handelt. Die Prozentsatzdifferenz bezieht sich immer auf eine Ausprägung der abhängigen Variablen im Hinblick auf zwei Untergruppen der unabhängigen Variablen. Kapitel 14 Bivariate Zusammenhänge Jemand, der bereit ist, auf eine Niederlage des FC Bayern zu wetten, sollte dies daher nur dann tun, wenn er als Gewinn mindestens das 2,fache seines Einsatzes erhält, wenn die Bayern tatsächlich verlieren.

Odds bk ,bl ,ai hik hil Für unser Beispiel gilt: Dies ist dann der Fall, wenn eine Änderung der unabhängigen Variablen eine Änderung der abhängigen Variablen nach sich zieht.

Bei dem speziellen Fall einer Vierfeldertabelle würde dies bedeuten, dass sich alle Fälle nur in den Zellen einer der beiden Diagonalen befinden.

Einfacher lässt sich dieses Kriterium umgekehrt formulieren: Wenn kein Zusammenhang zwischen den beiden Variablen besteht, dann erwarten wir eine annähernd identische Verteilung der bedingten relativen Häufigkeiten für die verschiedenen Ausprägungen der bedingenden Variablen.

Ausgehend vom Postulat der empirischen Unabhängigkeit können wir nun eine Indifferenztabelle Tabelle konstruieren, die die Häufigkeiten in den Zellen angibt, die wir erwarten würden, wenn es keinen Unterschied des Geschmacks in Bezug auf männliche Kinoschauspieler zwischen Männern und Frauen gäbe.

Diese Tabelle nennen wir Indifferenztabelle. Chi-Quadrat-Koeffizient Harrison Ford Tom Cruise George Segal Sylvester Zeilensummen Stallone Männer Originalwerte erwartete Werte Abweichungen 56 46 3 27 72 0 Frauen Originalwerte erwartete Werte Abweichungen 56 84 46 3 23 50 27 49 72 0 Spaltensummen Allerdings müssen wir dabei einiges beachten.

Das Vorzeichen eines Ausdrucks kann unter anderem dadurch neutralisiert werden, dass man entweder den absoluten Betrag des Ausdrucks nimmt oder den Ausdruck quadriert. Wie bei der Berechnung der Varianz wird auch hier der zweite Weg gewählt. Der Wert '1' gibt dann den stärkstmöglichen Zusammenhang an. Dies kann man am einfachsten für eine Vierfeldertafel zeigen. Der stärkste mögliche Zusammenhang in einer Vierfeldertafel besteht, wenn sich alle Fälle in einer der beiden Diagonalen befinden.

In der folgenden Tabelle ist ein konkretes Beispiel aufgeführt. Von insgesamt 40 Fällen befinden sich jeweils 20 in den beiden Zellen der Diagonalen von links oben nach rechts unten.

Würde die bedingende Variable X keinen Einfluss auf Y ausüben, dann müssten in allen vier Zellen der Tabelle jeweils 10 Fälle enthalten sein. Phi-Koeffizient I2 F2 bzw. Der stärkstmögliche Zusammenhang für eine beliebige quadratische Tabelle mit k Spalten und k Zeilen besteht dann, wenn es für jede Ausprägung der XVariablen genau eine Ausprägung der Y-Variablen gibt, die dieser zugeordnet werden kann, d.

Dies ist genau dann der Fall, wenn sich alle Fälle einer Zeile auf eine einzige Spalte verteilen. Anders ausgedrückt, jede besetzte Zelle ist die jeweils einzig besetzte Zelle in ihrer Zeile und in ihrer Spalte. Die Diagonalstruktur bei der Vierfeldertabelle ergibt sich zwangsläufig aus der Bedingung, dass jede besetzte Zelle sowohl in ihrer Kapitel 14 Bivariate Zusammenhänge Zeile als auch in ihrer Spalte als Einzige besetzt sein darf und es eben nur je zwei Spalten und Zeilen gibt.

Das Ergebnis sieht dann wie in der folgenden Tabelle aus: Da dementsprechend die Anzahl der Ausprägungen der unabhängigen Variablen nicht mehr gleich der Anzahl der Ausprägungen der abhängigen Variablen ist, ist auch keine eineindeutige gegenseitige Zuordnung der Werte mehr möglich. Dann muss es für mindestens eine Ausprägung der Zeilenvariablen verschiedene Ausprägungen der Spaltenvariablen geben, die dieser zugeordnet werden.

Dies ist dann gegeben, wenn jede Ausprägung der Spaltenvariablen zumindest nur in einer einzigen Zeile vorkommt. Kapitel 14 Bivariate Zusammenhänge Theorem E 1: Im allgemeinen Falle rechteckiger Tabellen, wenn die Anzahl der Spalten nicht mit der Anzahl der Zeilen übereinstimmt, ist keine eineindeutige Zuordnung der Werte mehr möglich. Ohne im Einzelnen den allgemeinen Fall zu beweisen, können wir ein weiteres Theorem aufstellen, das wir das Rechtecks-Theorem nennen wollen. Dies ist gleich bedeutend damit, dass q gleich der Anzahl der Spalten bzw.

Ende Experte Kapitel 14 Bivariate Zusammenhänge Quadriere also multipliziere die Zahlen mit sich selbst alle Lösungen aus dem letzten Schritt. Diese Werte benötigst du, um die Varianz deiner Stichprobe zu bestimmen. Die Quadratzahlen aus diesen Berechnungen sind: Überprüfe deine Ergebnisse, bevor du zum nächsten Schritt übergehst.

Zähle die Quadratzahlen zusammen. Du musst die Summe der Quadratzahlen berechnen. Überprüfe deine Berechnung noch einmal, damit du mit den richtigen Werten weitermachst. Teile die Summe der Quadrate durch n Durch diesen Schritt bekommst du die Varianz. Es gibt 5 Werte in unserer Stichprobe. Um die Varianz zu finden, musst du folgendes berechnen: Finde den Wert für die Varianz.

Diesen wirst du für die Berechnung der Standardabweichung benötigen. Die Standardabweichung ist eine Zahl, die anzeigt, wie sehr verteilt die Daten in deiner Stichprobe liegen. In unserem Beispiel mit den Baumhöhen ist die Varianz 0, Ziehe die Wurzel aus dem Wert für die Varianz. Das Ergebnis ist die Standardabweichung.

Es ist in Ordnung, wenn du das Ergebnis für die Standardabweichung auf die zweite oder dritte Dezimalstelle rundest. In unserem Fall verwenden wir 0, Als gerundeter Wert ist die Standardabweichung für unsere Stichprobe aus Baumhöhen 0, Gehe noch einmal alles durch und finde den Wert für den Mittelwert, die Varianz und die Standardabweichung.

Damit stellst du auch sicher, dass du die richtigen Werte für die Standardabweichung verwendet hast. Schreibe alle Zwischenschritte für deine Berechnungen auf.

Dadurch erkennst du, wo du einen Fehler gemacht hast, solltest du einen haben. Solltest du bei deiner Überprüfung ein anderes Ergebnis für den Mittelwert, die Varianz oder die Standardabweichung bekommen, gehe noch einmal alle Berechnungen durch und untersuche sie sorgfältig. Verwende folgende Formel, um einen Z-Wert zu berechnen: Wenn du also z. In unserem Beispiel mit den Baumhöhen ist der Mittelwert 7,9. In unserem Beispiel mit den Baumhöhen ist die Standardabweichung 0, Beginne die Berechnung, indem du den Mittelwert von deinem Datenpunkt abziehst.

So fängst du mit der Berechnung des Z-Werts an. Deswegen berechnen wir Folgendes: Überprüfe noch einmal, ob du den richtigen Mittelwert eingesetzt und richtig subtrahiert hast, bevor du weitermachst.