Klassische Methoden der Statistik: Chi-Quadrat-Test. Pearson-Kriterium zur Prüfung der Hypothese über die Form des Verteilungsgesetzes einer Zufallsvariablen

Zu Ende des 19. Jahrhunderts Jahrhundert galt die Normalverteilung als das universelle Gesetz der Datenvariation. K. Pearson stellte jedoch fest, dass empirische Häufigkeiten stark von der Normalverteilung abweichen können. Es stellte sich die Frage, wie man dies beweisen kann. Gefordert war nicht nur ein grafischer Vergleich, der subjektiv ist, sondern auch eine strenge quantitative Begründung.

So wurde das Kriterium erfunden χ 2(Chi-Quadrat), das die Signifikanz der Diskrepanz zwischen empirischen (beobachteten) und theoretischen (erwarteten) Häufigkeiten testet. Dies geschah bereits im Jahr 1900, aber das Kriterium wird auch heute noch verwendet. Darüber hinaus wurde es angepasst, um eine Vielzahl von Problemen zu lösen. Dies ist zunächst einmal die Analyse kategorialer Daten, d.h. diejenigen, die nicht durch Quantität, sondern durch Zugehörigkeit zu einer Kategorie ausgedrückt werden. Zum Beispiel die Klasse des Autos, das Geschlecht des Versuchsteilnehmers, die Art der Anlage usw. Mathematische Operationen wie Addition und Multiplikation können auf solche Daten nicht angewendet werden; für sie können nur Häufigkeiten berechnet werden.

Wir bezeichnen die beobachteten Frequenzen Über (Beobachtet), erwartet - E (erwartet). Nehmen wir als Beispiel das Ergebnis eines 60-maligen Würfelns. Wenn es symmetrisch und einheitlich ist, beträgt die Wahrscheinlichkeit, eine beliebige Seite zu erhalten, 1/6 und daher ist die erwartete Anzahl, jede Seite zu erhalten, 10 (1/6∙60). Wir schreiben die beobachteten und erwarteten Häufigkeiten in eine Tabelle und zeichnen ein Histogramm.

Die Nullhypothese besagt, dass die Häufigkeiten konsistent sind, d. h. die tatsächlichen Daten widersprechen nicht den erwarteten Daten. Eine alternative Hypothese besagt, dass die Abweichungen in den Häufigkeiten über zufällige Schwankungen hinausgehen und die Abweichungen statistisch signifikant sind. Um eine strenge Schlussfolgerung zu ziehen, müssen wir.

  1. Ein zusammenfassendes Maß für die Diskrepanz zwischen beobachteten und erwarteten Häufigkeiten.
  2. Die Verteilung dieses Maßes, wenn die Hypothese, dass es keine Unterschiede gibt, wahr ist.

Beginnen wir mit dem Abstand zwischen den Frequenzen. Wenn Sie nur den Unterschied nehmen O - E, dann hängt ein solches Maß vom Umfang der Daten (Frequenzen) ab. Zum Beispiel 20 - 5 = 15 und 1020 - 1005 = 15. In beiden Fällen beträgt die Differenz 15. Im ersten Fall sind die erwarteten Häufigkeiten jedoch dreimal geringer als die beobachteten und im zweiten Fall nur 1,5 %. Wir brauchen ein relatives Maß, das nicht vom Maßstab abhängt.

Achten wir auf die folgenden Fakten. Im Allgemeinen kann die Anzahl der Kategorien, in die Häufigkeiten gemessen werden, viel größer sein, sodass die Wahrscheinlichkeit, dass eine einzelne Beobachtung in die eine oder andere Kategorie fällt, recht gering ist. Wenn ja, dann folgt die Verteilung einer solchen Zufallsvariablen dem Gesetz seltener Ereignisse, bekannt als Poissonsches Gesetz. Im Poissonschen Gesetz ist bekanntlich der Wert mathematische Erwartung und die Varianzen fallen zusammen (Parameter λ ). Dies bedeutet, dass die erwartete Häufigkeit für eine bestimmte Kategorie der Nominalvariablen vorliegt E i wird gleichzeitig sein und seine Streuung. Darüber hinaus neigt das Poissonsche Gesetz dazu, sich bei einer großen Anzahl von Beobachtungen zu normalisieren. Wenn wir diese beiden Tatsachen kombinieren, erhalten wir Folgendes: Wenn die Hypothese über die Übereinstimmung zwischen den beobachteten und den erwarteten Häufigkeiten richtig ist, dann gilt: mit einer großen Anzahl von Beobachtungen, Ausdruck

Es ist wichtig zu bedenken, dass Normalität nur bei ausreichend hohen Frequenzen auftritt. In der Statistik gilt allgemein, dass die Gesamtzahl der Beobachtungen (Summe der Häufigkeiten) mindestens 50 und die erwartete Häufigkeit in jeder Abstufung mindestens 5 betragen muss. Nur in diesem Fall weist der oben angezeigte Wert eine Standardnormalverteilung auf . Nehmen wir an, dass diese Bedingung erfüllt ist.

Die Standardnormalverteilung hat fast alle Werte innerhalb von ±3 (die Drei-Sigma-Regel). Somit haben wir den relativen Frequenzunterschied für eine Abstufung erhalten. Wir brauchen ein verallgemeinerbares Maß. Man kann nicht einfach alle Abweichungen addieren – wir erhalten 0 (raten Sie mal, warum). Pearson schlug vor, die Quadrate dieser Abweichungen zu addieren.

Das ist das Zeichen Chi-Quadrat-Test Pearson. Wenn die Häufigkeiten tatsächlich den erwarteten entsprechen, ist der Wert des Kriteriums relativ klein (da die meisten Abweichungen bei Null liegen). Wenn sich herausstellt, dass das Kriterium jedoch groß ist, deutet dies auf erhebliche Unterschiede zwischen den Häufigkeiten hin.

Das Pearson-Kriterium wird „groß“, wenn das Eintreten dieses oder eines noch größeren Wertes unwahrscheinlich wird. Und um eine solche Wahrscheinlichkeit zu berechnen, ist es notwendig, die Verteilung des Kriteriums zu kennen, wenn das Experiment viele Male wiederholt wird, wenn die Hypothese der Häufigkeitsübereinstimmung richtig ist.

Wie leicht zu erkennen ist, hängt der Chi-Quadrat-Wert auch von der Anzahl der Terme ab. Je mehr es sind, desto größer sollte der Wert des Kriteriums sein, da jeder Begriff zum Gesamtergebnis beiträgt. Daher für jede Menge unabhängig Bedingungen wird es eine eigene Verteilung geben. Es stellt sich heraus, dass χ 2 ist eine ganze Familie von Distributionen.

Und hier kommen wir zu einem heiklen Moment. Was ist eine Zahl? unabhängig Bedingungen? Es scheint, als ob jeder Begriff (d. h. Abweichung) unabhängig ist. K. Pearson dachte das auch, aber es stellte sich heraus, dass er falsch lag. Tatsächlich ist die Anzahl der unabhängigen Terme um eins geringer als die Anzahl der Abstufungen der Nominalvariablen N. Warum? Denn wenn wir eine Stichprobe haben, für die die Summe der Häufigkeiten bereits berechnet wurde, dann lässt sich eine der Häufigkeiten immer als Differenz zwischen der Gesamtzahl und der Summe aller anderen bestimmen. Daher wird die Variation etwas geringer sein. Ronald Fisher bemerkte diese Tatsache 20 Jahre nachdem Pearson sein Kriterium entwickelt hatte. Sogar die Tische mussten erneuert werden.

Bei dieser Gelegenheit führte Fisher ein neues Konzept in die Statistik ein: Freiheitsgrad(Freiheitsgrade), der die Anzahl der unabhängigen Terme in der Summe darstellt. Das Konzept der Freiheitsgrade hat eine mathematische Erklärung und erscheint nur in Verteilungen, die mit der Normalverteilung verbunden sind (Student-, Fisher-Snedecor- und Chi-Quadrat-Verteilung selbst).

Um die Bedeutung von Freiheitsgraden besser zu verstehen, wenden wir uns einem physikalischen Analogon zu. Stellen wir uns einen Punkt vor, der sich frei im Raum bewegt. Es hat 3 Freiheitsgrade, weil kann sich im dreidimensionalen Raum in jede Richtung bewegen. Wenn sich ein Punkt entlang einer beliebigen Fläche bewegt, dann hat er bereits zwei Freiheitsgrade (vorwärts-rückwärts, rechts-links), obwohl er sich weiterhin in befindet dreidimensionaler Raum. Ein Punkt, der sich entlang einer Feder bewegt, befindet sich wiederum im dreidimensionalen Raum, hat aber nur einen Freiheitsgrad, weil kann sich entweder vorwärts oder rückwärts bewegen. Wie Sie sehen, entspricht der Raum, in dem sich das Objekt befindet, nicht immer der tatsächlichen Bewegungsfreiheit.

In etwa auf die gleiche Weise kann die Verteilung eines statistischen Kriteriums von einer geringeren Anzahl von Elementen abhängen als den für seine Berechnung erforderlichen Termen. Im Allgemeinen ist die Anzahl der Freiheitsgrade kleiner als die Anzahl der Beobachtungen um die Anzahl der vorhandenen Abhängigkeiten.

Somit ist die Chi-Quadrat-Verteilung ( χ 2) ist eine Verteilungsfamilie, die jeweils vom Freiheitsgradparameter abhängt. Und die formale Definition des Chi-Quadrat-Tests lautet wie folgt. Verteilung χ 2(Chi-Quadrat) s k Freiheitsgrade sind die Verteilung der Quadratsummen k unabhängige Standardnormal-Zufallsvariablen.

Als nächstes könnten wir mit der Formel selbst fortfahren, nach der die Chi-Quadrat-Verteilungsfunktion berechnet wird, aber glücklicherweise ist alles schon lange für uns berechnet. Um die interessierende Wahrscheinlichkeit zu ermitteln, können Sie entweder die entsprechende Statistiktabelle oder eine vorgefertigte Funktion in Excel verwenden.

Es ist interessant zu sehen, wie sich die Form der Chi-Quadrat-Verteilung abhängig von der Anzahl der Freiheitsgrade ändert.

Mit zunehmenden Freiheitsgraden tendiert die Chi-Quadrat-Verteilung zur Normalität. Dies wird durch die Wirkung des zentralen Grenzwertsatzes erklärt, wonach die Summe einer großen Anzahl unabhängiger Zufallsvariablen eine Normalverteilung aufweist. Es sagt nichts über Quadrate aus)).

Testen der Hypothese mit dem Pearson-Chi-Quadrat-Test

Nun kommen wir zum Testen von Hypothesen mit der Chi-Quadrat-Methode. Im Allgemeinen bleibt die Technologie erhalten. Die Nullhypothese besagt, dass die beobachteten Häufigkeiten den erwarteten entsprechen (d. h. es gibt keinen Unterschied zwischen ihnen, da sie aus derselben Population stammen). Wenn dies der Fall ist, wird die Streuung innerhalb der Grenzen zufälliger Schwankungen relativ gering sein. Das Maß der Streuung wird mit dem Chi-Quadrat-Test bestimmt. Anschließend wird entweder das Kriterium selbst mit dem kritischen Wert (für das entsprechende Signifikanzniveau und die entsprechenden Freiheitsgrade) verglichen oder, was korrekter ist, der beobachtete p-Wert berechnet, d. h. die Wahrscheinlichkeit, den gleichen oder sogar einen höheren Kriteriumswert zu erhalten, wenn die Nullhypothese wahr ist.

Weil Sind wir an der Übereinstimmung der Häufigkeiten interessiert, wird die Hypothese verworfen, wenn das Kriterium größer als das kritische Niveau ist. Diese. das Kriterium ist einseitig. Manchmal (manchmal) ist es jedoch notwendig, die Hypothese der linken Hand zu testen. Zum Beispiel, wenn empirische Daten theoretischen Daten sehr ähnlich sind. Dann liegt das Kriterium möglicherweise in einem unwahrscheinlichen Bereich, aber im linken Bereich. Tatsache ist, dass es unter natürlichen Bedingungen unwahrscheinlich ist, Frequenzen zu erhalten, die praktisch mit den theoretischen übereinstimmen. Es gibt immer einen Zufall, der zu einem Fehler führt. Liegt ein solcher Fehler jedoch nicht vor, handelt es sich möglicherweise um eine Verfälschung der Daten. Dennoch wird normalerweise die rechtsseitige Hypothese getestet.

Kehren wir zum Würfelproblem zurück. Berechnen wir den Wert des Chi-Quadrat-Tests anhand der verfügbaren Daten.

Lassen Sie uns nun den kritischen Wert bei 5 Freiheitsgraden ermitteln ( k) und Signifikanzniveau 0,05 ( α ) gemäß der Tabelle der kritischen Werte der Chi-Quadrat-Verteilung.

Das heißt, das 0,05-Quantil ist eine Chi-Quadrat-Verteilung (rechtes Ende) mit 5 Freiheitsgraden χ 2 0,05; 5 = 11,1.

Vergleichen wir das tatsächliche und Tabellenwert. 3,4 (χ 2) < 11,1 (χ 2 0,05; 5). Das berechnete Kriterium fiel kleiner aus, was bedeutet, dass die Hypothese der Gleichheit (Übereinstimmung) der Häufigkeiten nicht abgelehnt wird. In der Abbildung sieht die Situation so aus.

Wenn der berechnete Wert innerhalb des kritischen Bereichs läge, würde die Nullhypothese verworfen.

Richtiger wäre es, auch den p-Wert zu berechnen. Dazu müssen Sie für eine bestimmte Anzahl von Freiheitsgraden den nächstgelegenen Wert in der Tabelle finden und sich das entsprechende Signifikanzniveau ansehen. Aber das ist das letzte Jahrhundert. Wir verwenden einen Computer, insbesondere MS Excel. Excel verfügt über mehrere Chi-Quadrat-bezogene Funktionen.

Nachfolgend finden Sie eine kurze Beschreibung davon.

CH2.OBR– kritischer Wert des Kriteriums bei einer gegebenen Wahrscheinlichkeit auf der linken Seite (wie in statistischen Tabellen)

CH2.OBR.PH– kritischer Wert des Kriteriums für eine gegebene Wahrscheinlichkeit auf der rechten Seite. Die Funktion dupliziert im Wesentlichen die vorherige. Aber hier können Sie sofort den Füllstand angeben α , anstatt es von 1 zu subtrahieren. Das ist praktischer, weil In den meisten Fällen ist es das rechte Ende der Verteilung, das benötigt wird.

CH2.DIST– p-Wert links (Dichte kann berechnet werden).

CH2.DIST.PH– p-Wert rechts.

CHI2.TEST– führt sofort einen Chi-Quadrat-Test für zwei Frequenzbereiche durch. Es wird davon ausgegangen, dass die Anzahl der Freiheitsgrade um eins kleiner ist als die Anzahl der Häufigkeiten in der Spalte (wie es sein sollte), wodurch ein p-Wert zurückgegeben wird.

Berechnen wir für unser Experiment den kritischen (tabellarischen) Wert für 5 Freiheitsgrade und Alpha 0,05. Die Excel-Formel sieht folgendermaßen aus:

CH2.OBR(0,95;5)

CH2.OBR.PH(0,05;5)

Das Ergebnis wird das gleiche sein – 11.0705. Dies ist genau der Wert, den wir in der Tabelle sehen (auf 1 Dezimalstelle gerundet).

Lassen Sie uns abschließend den p-Wert für das Kriterium mit 5 Freiheitsgraden berechnen χ 2= 3,4. Wir brauchen eine Wahrscheinlichkeit auf der rechten Seite, also nehmen wir eine Funktion mit dem Zusatz HH (rechtes Ende).

CH2.DIST.PH(3,4;5) = 0,63857

Dies bedeutet, dass bei 5 Freiheitsgraden die Wahrscheinlichkeit, den Kriteriumswert zu erhalten, beträgt χ 2= 3,4 und mehr entspricht fast 64 %. Natürlich wird die Hypothese nicht verworfen (p-Wert ist größer als 5 %), die Häufigkeiten stimmen sehr gut überein.

Überprüfen wir nun die Hypothese zur Übereinstimmung der Häufigkeiten mithilfe des Chi-Quadrat-Tests und der Excel-Funktion CHI2.TEST.

Keine Tabellen, keine umständlichen Berechnungen. Indem wir Spalten mit beobachteten und erwarteten Häufigkeiten als Funktionsargumente angeben, erhalten wir sofort den p-Wert. Schönheit.

Stellen Sie sich nun vor, Sie spielen mit einem verdächtigen Mann Würfel. Die Punkteverteilung von 1 bis 5 bleibt gleich, er würfelt jedoch 26 Sechser (die Gesamtzahl der Würfe beträgt 78).

Der p-Wert beträgt in diesem Fall 0,003, was deutlich weniger als 0,05 ist. Es gibt gute Gründe, an der Gültigkeit der Würfel zu zweifeln. So sieht diese Wahrscheinlichkeit in einem Chi-Quadrat-Verteilungsdiagramm aus.

Das Chi-Quadrat-Kriterium selbst beträgt hier 17,8, was natürlich größer ist als das Tabellenkriterium (11,1).

Ich hoffe, ich konnte erklären, was das Kriterium der Übereinstimmung ist χ 2(Pearson-Chi-Quadrat) und wie es zum Testen statistischer Hypothesen verwendet werden kann.

Endlich noch einmal darüber wichtige Bedingung! Der Chi-Quadrat-Test funktioniert nur dann ordnungsgemäß, wenn die Anzahl aller Häufigkeiten 50 überschreitet und der minimale erwartete Wert für jede Abstufung nicht weniger als 5 beträgt. Wenn in einer Kategorie die erwartete Häufigkeit weniger als 5 beträgt, die Summe aller Häufigkeiten jedoch größer ist als 50 Wenn dies nicht möglich ist oder die Summe der Häufigkeiten weniger als 50 beträgt, sollten genauere Methoden zur Hypothesenprüfung verwendet werden. Wir werden ein anderes Mal darüber sprechen.

Unten finden Sie ein Video zum Testen einer Hypothese in Excel mithilfe des Chi-Quadrat-Tests.

Betrachten Sie die Bewerbung inMSAUSGEZEICHNETChi-Quadrat-Test nach Pearson zum Testen einfacher Hypothesen.

Nach Erhalt experimenteller Daten (d. h. wenn welche vorhanden sind). Probe) Normalerweise wird das Verteilungsgesetz gewählt, das die durch eine gegebene Zufallsvariable dargestellte Zufallsvariable am besten beschreibt Probenahme. Die Überprüfung, wie gut die experimentellen Daten durch das ausgewählte theoretische Verteilungsgesetz beschrieben werden, erfolgt mit Vereinbarungskriterien. Nullhypothese, gibt es normalerweise eine Hypothese über die Gleichheit der Verteilung einer Zufallsvariablen auf einige Theoretisches Recht.

Schauen wir uns zunächst die Anwendung an Anpassungstest nach Pearson x 2 (Chi-Quadrat) in Bezug auf einfache Hypothesen (die Parameter der theoretischen Verteilung gelten als bekannt). Dann - , wenn nur die Form der Verteilung angegeben wird, sowie die Parameter dieser Verteilung und der Wert Statistiken X 2 werden auf dieser Grundlage bewertet/berechnet Proben.

Notiz: In der englischsprachigen Literatur das Bewerbungsverfahren Pearson-Anpassungstest X 2 hat einen Namen Der Chi-Quadrat-Anpassungstest.

Erinnern wir uns an das Verfahren zum Testen von Hypothesen:

  • bezogen auf Proben Wert berechnet wird Statistiken, was der Art der getesteten Hypothese entspricht. Zum Beispiel für gebraucht T-Statistiken(falls nicht bekannt);
  • der Wahrheit unterworfen Nullhypothese, die Verteilung davon Statistiken ist bekannt und kann zur Berechnung von Wahrscheinlichkeiten verwendet werden (z. B T-Statistiken Das );
  • berechnet auf Basis Proben Bedeutung Statistiken verglichen mit dem kritischen Wert für einen bestimmten Wert ();
  • Nullhypothese Bei Wert ablehnen Statistiken größer als kritisch ist (oder wenn die Wahrscheinlichkeit, diesen Wert zu erhalten, höher ist). Statistiken() weniger Signifikanzniveau, was ein äquivalenter Ansatz ist).

Lasst uns ausführen Hypothesentest für verschiedene Distributionen.

Diskreter Fall

Angenommen, zwei Personen spielen Würfel. Jeder Spieler hat sein eigenes Würfelset. Die Spieler würfeln abwechselnd mit 3 Würfeln gleichzeitig. Jede Runde gewinnt derjenige, der gleichzeitig die meisten Sechsen würfelt. Die Ergebnisse werden protokolliert. Nach 100 Runden vermutete einer der Spieler, dass die Würfel seines Gegners asymmetrisch waren, weil er gewinnt oft (er wirft oft Sechser). Er beschloss zu analysieren, wie wahrscheinlich eine solche Anzahl feindlicher Ausgänge war.

Notiz: Weil Es gibt 3 Würfel, dann kann man jeweils 0 würfeln; 1; 2 oder 3 Sechser, d.h. Eine Zufallsvariable kann 4 Werte annehmen.

Aus der Wahrscheinlichkeitstheorie wissen wir, dass bei symmetrischen Würfeln die Wahrscheinlichkeit, Sechsen zu bekommen, gleich ist. Daher können nach 100 Runden die Häufigkeiten von Sechsern anhand der Formel berechnet werden
=BINOM.VERT(A7,3,1/6,FALSE)*100

Die Formel geht davon aus, dass in der Zelle A7 enthält die entsprechende Anzahl an Sechsern, die in einer Runde gewürfelt wurden.

Notiz: Berechnungen sind in angegeben Beispieldatei auf dem Discrete-Blatt.

Zum Vergleich beobachtet(Beobachtet) und theoretische Frequenzen(Erwartet) bequem zu bedienen.

Weichen die beobachteten Häufigkeiten deutlich von der theoretischen Verteilung ab, Nullhypotheseüber die Verteilung einer Zufallsvariablen nach einem theoretischen Gesetz müssen abgelehnt werden. Das heißt, wenn die Würfel des Gegners asymmetrisch sind, unterscheiden sich die beobachteten Häufigkeiten „signifikant“ von Binomialverteilung.

In unserem Fall liegen die Häufigkeiten auf den ersten Blick recht nahe beieinander und ohne Berechnungen ist es schwierig, eine eindeutige Schlussfolgerung zu ziehen. Anwendbar Pearson-Anpassungstest x 2, so dass anstelle der subjektiven Aussage „wesentlich anders“ eine Vergleichsaussage erfolgen kann Histogramme, verwenden Sie eine mathematisch korrekte Aussage.

Wir nutzen die Tatsache, dass aufgrund Gesetz der großen Zahlen beobachtete Häufigkeit (Observed) mit zunehmender Lautstärke Proben n tendiert zu der Wahrscheinlichkeit, die dem theoretischen Gesetz entspricht (in unserem Fall Binomialgesetz). In unserem Fall beträgt die Stichprobengröße n 100.

Stellen wir uns vor prüfen Statistiken, die wir mit X 2 bezeichnen:

Dabei ist O l die beobachtete Häufigkeit von Ereignissen, bei denen die Zufallsvariable bestimmte akzeptable Werte angenommen hat, und E l die entsprechende theoretische Häufigkeit (erwartet). L ist die Anzahl der Werte, die eine Zufallsvariable annehmen kann (in unserem Fall sind es 4).

Wie aus der Formel ersichtlich ist, ist dies Statistiken ist ein Maß für die Nähe beobachteter Frequenzen zu theoretischen, d. h. Es kann verwendet werden, um die „Abstände“ zwischen diesen Frequenzen abzuschätzen. Wenn die Summe dieser „Abstände“ „zu groß“ ist, dann sind diese Häufigkeiten „erheblich unterschiedlich“. Es ist klar, dass, wenn unser Würfel symmetrisch (d. h. anwendbar) ist Binomialgesetz), dann ist die Wahrscheinlichkeit, dass die Summe der „Abstände“ „zu groß“ ist, gering. Um diese Wahrscheinlichkeit zu berechnen, müssen wir die Verteilung kennen Statistiken X 2 ( Statistiken X 2 wird nach dem Zufallsprinzip berechnet Proben, daher ist es eine Zufallsvariable und hat daher eine eigene Wahrscheinlichkeitsverteilung).

Aus dem mehrdimensionalen Analogon Integralsatz von Moivre-Laplace Es ist bekannt, dass unsere Zufallsvariable X 2 für n->∞ asymptotisch mit L - 1 Freiheitsgraden ist.

Also, wenn der berechnete Wert Statistiken Wenn X 2 (die Summe der „Abstände“ zwischen Frequenzen) größer als ein bestimmter Grenzwert ist, haben wir Grund zur Ablehnung Nullhypothese. Dasselbe wie beim Überprüfen parametrische Hypothesen, der Grenzwert wird über eingestellt Signifikanzniveau. Wenn die Wahrscheinlichkeit, dass die X 2 -Statistik einen Wert annimmt, der kleiner oder gleich dem berechneten Wert ist ( P-Bedeutung), wird weniger sein Signifikanzniveau, Das Nullhypothese kann abgelehnt werden.

In unserem Fall beträgt der statistische Wert 22,757. Die Wahrscheinlichkeit, dass die X2-Statistik einen Wert größer oder gleich 22,757 annimmt, ist sehr gering (0,000045) und kann mithilfe der Formeln berechnet werden
=CHI2.DIST.PH(22.757,4-1) oder
=CHI2.TEST(Beobachtet; Erwartet)

Notiz: Die Funktion CHI2.TEST() wurde speziell zum Testen der Beziehung zwischen zwei kategorialen Variablen entwickelt (siehe).

Die Wahrscheinlichkeit 0,000045 ist deutlich geringer als üblich Signifikanzniveau 0,05. Der Spieler hat also allen Grund, seinen Gegner der Unehrlichkeit zu verdächtigen ( Nullhypothese seine Ehrlichkeit wird geleugnet).

Bei der Verwendung Kriterium X 2 Es ist darauf zu achten, dass die Lautstärke gewährleistet ist Proben n war groß genug, sonst wäre die Näherung der Verteilung nicht gültig Statistik X 2. Man geht üblicherweise davon aus, dass es hierfür ausreicht, dass die beobachteten Häufigkeiten (Observed) größer als 5 sind. Ist dies nicht der Fall, werden kleine Häufigkeiten zu einer zusammengefasst oder zu anderen Häufigkeiten addiert und dem kombinierten Wert ein Gesamtwert zugeordnet Wahrscheinlichkeit und dementsprechend wird die Anzahl der Freiheitsgrade reduziert X 2 Verteilungen.

Um die Qualität der Anwendung zu verbessern Kriterium X 2() ist es notwendig, die Partitionsintervalle zu reduzieren (L zu erhöhen und dementsprechend die Anzahl zu erhöhen). Freiheitsgrade), dies wird jedoch durch die Beschränkung der Anzahl der in jedem Intervall enthaltenen Beobachtungen (db>5) verhindert.

Kontinuierlicher Fall

Pearson-Anpassungstest X 2 kann auch bei angewendet werden.

Betrachten wir ein bestimmtes Probe, bestehend aus 200 Werten. Nullhypothese gibt das an Probe hergestellt aus .

Notiz: Zufallsvariablen in Beispieldatei auf dem fortlaufenden Blatt mit der Formel generiert =NORM.ST.INV(RAND()). Daher neue Werte Proben werden bei jeder Neuberechnung des Blattes generiert.

Ob der vorhandene Datensatz angemessen ist, kann visuell beurteilt werden.

Wie aus dem Diagramm hervorgeht, passen die Beispielwerte recht gut entlang der Geraden. Allerdings wie für Hypothesentest anwendbar Pearson X 2-Anpassungstest.

Dazu unterteilen wir den Änderungsbereich der Zufallsvariablen in Intervalle mit einer Schrittweite von 0,5. Berechnen wir die beobachteten und theoretischen Häufigkeiten. Wir berechnen die beobachteten Häufigkeiten mit der Funktion FREQUENCY() und die theoretischen mit der Funktion NORM.ST.DIST().

Notiz: Das Gleiche wie für diskreter Fall, das muss sichergestellt werden Probe war ziemlich groß und das Intervall umfasste >5 Werte.

Berechnen wir die X2-Statistik und vergleichen sie mit dem kritischen Wert für einen gegebenen Wert Signifikanzniveau(0,05). Weil Teilen wir den Änderungsbereich einer Zufallsvariablen in 10 Intervalle ein, dann beträgt die Anzahl der Freiheitsgrade 9. Der kritische Wert kann mit der Formel berechnet werden
=CHI2.OBR.PH(0,05;9) oder
=CHI2.OBR(1-0,05;9)

Das obige Diagramm zeigt, dass der statistische Wert bei 8,19 liegt, was deutlich höher ist kritischer WertNullhypothese wird nicht abgelehnt.

Unten ist wo Probe nahm eine unwahrscheinliche Bedeutung an und basiert auf Kriterien Pearson-Zustimmung X 2 Die Nullhypothese wurde abgelehnt (obwohl Zufallswerte wurden mit der Formel generiert =NORM.ST.INV(RAND()), Bereitstellung Probe aus Standardnormalverteilung).

Nullhypothese abgelehnt, obwohl die Daten visuell ziemlich nahe an einer geraden Linie liegen.

Nehmen wir auch ein Beispiel Probe von U(-3; 3). In diesem Fall ist dies sogar aus der Grafik ersichtlich Nullhypothese sollte abgelehnt werden.

Kriterium Pearson-Zustimmung X 2 bestätigt das auch Nullhypothese sollte abgelehnt werden.

Bisher wurden Hypothesen betrachtet, bei denen davon ausgegangen wurde, dass das Verteilungsgesetz der Bevölkerung bekannt sei. Jetzt beginnen wir mit dem Testen von Hypothesen über das angenommene Gesetz der unbekannten Verteilung, das heißt, wir testen die Nullhypothese, dass die Bevölkerung nach einem bekannten Gesetz verteilt ist. Typischerweise werden statistische Tests zum Testen solcher Hypothesen genannt Einwilligungskriterien.

Übereinstimmungskriterium wird als Kriterium zum Testen einer Hypothese über das angenommene Gesetz einer unbekannten Verteilung bezeichnet. Es ist ein numerisches Maß für die Diskrepanz zwischen empirischer und theoretischer Verteilung.

Hauptaufgabe. Angegeben ist die empirische Verteilung (Stichprobe). Machen Sie eine Annahme (stellen Sie eine Hypothese auf) über die Art der theoretischen Verteilung und testen Sie die Hypothese auf einem bestimmten Signifikanzniveau α.

Die Lösung des Hauptproblems besteht aus zwei Teilen:

1. Eine Hypothese aufstellen.

2. Testen der Hypothese auf einem bestimmten Signifikanzniveau.

Schauen wir uns diese Teile im Detail an.

1. Auswahl der Hypothese Die Art der theoretischen Verteilung lässt sich bequem anhand von Polygonen oder Häufigkeitshistogrammen bestimmen. Vergleichen Sie das empirische Polygon (oder Histogramm) mit bekannten Verteilungsgesetzen und wählen Sie das am besten geeignete aus.

Hier finden Sie Diagramme zu den wichtigsten Verteilungsgesetzen:

Beispiele für empirische Verteilungsgesetze sind in den Abbildungen dargestellt:



Im Fall (a) wird eine Hypothese aufgestellt über Normalverteilung, im Fall (b) – die Hypothese der Gleichverteilung, im Fall (c) – die Hypothese der Poisson-Verteilung.

Grundlage für die Aufstellung einer Hypothese über die theoretische Verteilung können theoretische Prämissen über die Art der Merkmalsänderung sein. Wenn wir beispielsweise die Bedingungen des Lyapunov-Theorems erfüllen, können wir eine Hypothese über die Normalverteilung aufstellen. Die Gleichheit von Mittelwert und Varianz lässt auf eine Poisson-Verteilung schließen.

In der Praxis stoßen wir am häufigsten auf eine Normalverteilung, sodass wir bei unseren Aufgaben nur die Hypothese einer Normalverteilung testen müssen.

Hypothesentestüber die theoretische Verteilung beantwortet die Frage: Kann die Diskrepanz zwischen der angenommenen theoretischen und empirischen Verteilung als zufällig und unbedeutend angesehen werden, erklärt durch die Zufälligkeit bestimmter in der Stichprobe enthaltener Objekte, oder weist diese Diskrepanz auf eine signifikante Diskrepanz zwischen den Verteilungen hin? Es gibt verschiedene Methoden zur Verifizierung (Goodness-of-Fit-Kriterien) - c 2 (Chi-Quadrat), Kolmogorov, Romanovsky usw.

Pearson-Kriterium.

Der Vorteil des Pearson-Kriteriums liegt in seiner Universalität: Es kann zur Überprüfung von Hypothesen über verschiedene Verteilungsgesetze verwendet werden.

1. Testen der Hypothese der Normalverteilung. Es soll eine ausreichend große Stichprobe gewonnen werden N mit vielen verschiedenen Bedeutungen. Zur Vereinfachung der Verarbeitung teilen wir das Intervall vom kleinsten zum größten Wert der Option auf S gleiche Teile und wir gehen davon aus, dass die Werte der Optionen, die in jedes Intervall fallen, ungefähr gleich der Zahl sind, die die Mitte des Intervalls angibt. Indem wir die Anzahl der Optionen zählen, die in jedes Intervall fallen, erstellen wir eine sogenannte gruppierte Stichprobe:

Optionen……….. X 1 X 2 … x s

Frequenzen…………. N 1 N 2 … n s ,

Wo x i sind die Werte der Mittelpunkte der Intervalle und n ich– Anzahl der darin enthaltenen Optionen ich-Intervall (empirische Häufigkeiten). Aus den erhaltenen Daten können Sie den Stichprobenmittelwert und die Stichprobenstandardabweichung berechnen σ B. Überprüfen wir die Annahme, dass die Bevölkerung nach einem Normalgesetz mit Parametern verteilt ist M(X) = , D(X) = . Dann können Sie die Anzahl der Zahlen aus der Stichprobengröße ermitteln N, die unter dieser Annahme in jedem Intervall auftreten sollten (d. h. theoretische Häufigkeiten). Dazu ermitteln wir anhand der Wertetabelle der Laplace-Funktion die Eintrittswahrscheinlichkeit ich tes Intervall:

,

Wo und ich Und b ich- Grenzen ich-tes Intervall. Durch Multiplikation der erhaltenen Wahrscheinlichkeiten mit der Stichprobengröße n ermitteln wir die theoretischen Häufigkeiten: p i =n·p i Unser Ziel ist es, die empirischen und theoretischen Häufigkeiten, die sich natürlich voneinander unterscheiden, zu vergleichen und herauszufinden, ob diese Unterschiede unbedeutend sind und die Hypothese einer Normalverteilung der untersuchten Zufallsvariablen nicht widerlegen, oder ob sie es sind so groß, dass sie dieser Hypothese widersprechen. Hierzu wird ein Kriterium in Form einer Zufallsvariablen verwendet

. (7)

Seine Bedeutung liegt auf der Hand: Die Teile, die die Quadrate der Abweichungen empirischer Häufigkeiten von theoretischen von den entsprechenden theoretischen Häufigkeiten ausmachen, werden aufsummiert. Es lässt sich beweisen, dass unabhängig vom realen Verteilungsgesetz der Gesamtbevölkerung das Verteilungsgesetz der Zufallsvariablen (7) zum Verteilungsgesetz mit der Anzahl der Freiheitsgrade tendiert k = s – 1 – R, Wo R– die Anzahl der Parameter der erwarteten Verteilung, die aus den Stichprobendaten geschätzt wird. Die Normalverteilung wird daher durch zwei Parameter charakterisiert k = s – 3. Für das ausgewählte Kriterium wird ein rechtsseitiger kritischer Bereich konstruiert, der durch die Bedingung bestimmt wird

(8)

Wo α – Signifikanzniveau. Folglich ist der kritische Bereich durch die Ungleichung gegeben und der Akzeptanzbereich der Hypothese ist .

Also, um die Nullhypothese zu testen N 0: Die Grundgesamtheit ist normalverteilt – Sie müssen den beobachteten Wert des Kriteriums aus der Stichprobe berechnen:

, (7`)

und aus der Tabelle der kritischen Punkte der Verteilung χ 2 finden kritischer Punkt, unter Verwendung bekannter Werte von α und k = s – 3. Wenn – die Nullhypothese wird akzeptiert, wenn sie abgelehnt wird.

Beispiel. Die Ergebnisse der Nachfragestudie für das Produkt sind in der Tabelle dargestellt:

Stellen Sie eine Hypothese über die Art der Verteilung auf und testen Sie diese auf dem Signifikanzniveau von a=0,01.

I. Eine Hypothese aufstellen.

Um die Art der empirischen Verteilung anzuzeigen, erstellen wir ein Histogramm


120 160 180 200 220 280

Anhand des Aussehens des Histogramms kann man eine Annahme über die Normalverteilung des untersuchten Merkmals in der Allgemeinbevölkerung treffen.

II. Überprüfen wir die Hypothese zur Normalverteilung mithilfe des Pearson-Anpassungstests.

1. Berechnen Sie , s B. Alternativ nehmen Sie das arithmetische Mittel der Intervallenden:

2. Finden Sie die Intervalle (Z i ; Z i+1): ; .

Nehmen wir (-¥) als linkes Ende des ersten Intervalls und (+¥) als rechtes Ende des letzten Intervalls. Die Ergebnisse sind in der Tabelle dargestellt. 4.

3. Finden wir die theoretischen Wahrscheinlichkeiten Р i und die theoretischen Häufigkeiten (siehe Tabelle 4).

Tabelle 4

ich Intervallgrenze Ф(Zi) Ф(Z i+1) P i = Ф(Z i+1)-Ф(Z i)
x i x i+1 Z i Z i+1
-1,14 -0,5 -0,3729 0,1271 6,36
-1,14 -0,52 -0,3729 -0,1985 0,1744 8,72
-0,52 0,11 -0,1985 0,0438 0,2423 12,12
0,11 0,73 0,0438 0,2673 0,2235 11,18
0,73 0,2673 0,5 0,2327 11,64

4. Vergleichen wir empirische und theoretische Häufigkeiten. Gehen Sie dazu wie folgt vor:

a) Berechnen Sie den beobachteten Wert des Pearson-Kriteriums.

Die Berechnungen sind in Tabelle 5 dargestellt.

Tabelle 5

ich
6,36 -1,36 1,8496 0,291
8,72 1,28 1,6384 0,188
12,12 1,88 3,5344 0,292
11,18 0,82 0,6724 0,060
11,64 -2,64 6,9696 0,599
S

b) Mithilfe der Tabelle der kritischen Punkte der Verteilung c 2 bei einem gegebenen Signifikanzniveau a=0,01 und der Anzahl der Freiheitsgrade k=m–3=5–3=2 finden wir den kritischen Punkt; wir haben .

Vergleiche c. . Folglich gibt es keinen Grund, die Hypothese über das Normalverteilungsgesetz des untersuchten Merkmals der Allgemeinbevölkerung abzulehnen. Diese. die Diskrepanz zwischen den empirischen und theoretischen Häufigkeiten ist unbedeutend (zufällig). ◄

Kommentar. Intervalle mit kleinen empirischen Häufigkeiten (n i<5), следует объединить, а частоты этих интервалов сложить. Если производилось объединение интервалов, то при определении числа степеней свободы по формуле K=m-3 следует в качестве m принять число оставшихся после объединения интервалов.

Beispiel. Basierend auf einer Stichprobe von 24 Varianten wurde eine Hypothese über die Normalverteilung der Bevölkerung aufgestellt. Geben Sie unter Verwendung des Pearson-Kriteriums auf dem Signifikanzniveau unter den angegebenen Werten = (34, 35, 36, 37, 38) Folgendes an: a) den größten, für den es keinen Grund gibt, die Hypothese abzulehnen; b) der kleinste Wert, ab dem die Hypothese verworfen werden soll.

Ermitteln wir die Anzahl der Freiheitsgrade mithilfe der Formel:

Dabei ist die Anzahl der Stichprobengruppen (Option) die Anzahl der Verteilungsparameter.

Da die Normalverteilung zwei Parameter ( und ) hat, erhalten wir

Anhand der Tabelle der kritischen Punkte der Verteilung bestimmen wir unter Verwendung eines gegebenen Signifikanzniveaus und der Anzahl der Freiheitsgrade den kritischen Punkt.

Im Fall a) gibt es für Werte gleich 34 und 35 keinen Grund, die Hypothese einer Normalverteilung abzulehnen, da . Und der größte dieser Werte ist .

Im Fall b) für die Werte 36, 37, 38 wird die Hypothese abgelehnt, da . Der Kleinste unter ihnen .◄

2. Testen der Hypothese der Gleichverteilung. Bei Verwendung des Pearson-Tests zum Testen der Hypothese, dass die Grundgesamtheit gleichmäßig mit der geschätzten Wahrscheinlichkeitsdichte verteilt ist

Nach der Berechnung des Wertes aus der verfügbaren Stichprobe ist es notwendig, die Parameter abzuschätzen A Und B nach den Formeln:

Wo A* Und B*- Einschätzungen A Und B. Tatsächlich für eine gleichmäßige Verteilung M(X) = , , wo Sie ein System zur Bestimmung erhalten können A* Und B*: , deren Lösung die Ausdrücke (9) sind.

Dann gehe ich davon aus , können Sie die theoretischen Häufigkeiten mithilfe der Formeln ermitteln

Hier S– die Anzahl der Intervalle, in die die Stichprobe unterteilt wird.

Der beobachtete Wert des Pearson-Kriteriums wird mit der Formel (7`) berechnet, und der kritische Wert wird mit der Tabelle berechnet, wobei die Anzahl der Freiheitsgrade berücksichtigt wird k = s – 3. Anschließend werden die Grenzen des kritischen Bereichs auf die gleiche Weise bestimmt wie beim Testen der Hypothese einer Normalverteilung.

3. Testen der Hypothese über die Exponentialverteilung. In diesem Fall betrachten wir, nachdem wir die vorhandene Stichprobe in Intervalle gleicher Länge unterteilt haben, eine Folge von Optionen mit gleichem Abstand voneinander (wir gehen davon aus, dass alle Optionen, die in fallen). ich- tes Intervall, nehmen Sie einen Wert an, der mit seiner Mitte übereinstimmt) und ihre entsprechenden Frequenzen n ich(Anzahl der enthaltenen Beispieloptionen ich– tes Intervall). Berechnen wir aus diesen Daten und nehmen wir eine Schätzung des Parameters λ Größe. Anschließend werden die theoretischen Häufigkeiten anhand der Formel berechnet

Anschließend werden der beobachtete und der kritische Wert des Pearson-Kriteriums verglichen, wobei die Anzahl der Freiheitsgrade berücksichtigt wird k = s – 2.

Ministerium für Bildung und Wissenschaft der Russischen Föderation

Bundesagentur für Bildung der Stadt Irkutsk

Staatliche Baikal-Universität für Wirtschaft und Recht

Abteilung für Informatik und Kybernetik

Chi-Quadrat-Verteilung und ihre Anwendungen

Kolmykova Anna Andreevna

Student im 2. Jahr

Gruppe IS-09-1

Zur Verarbeitung der gewonnenen Daten verwenden wir den Chi-Quadrat-Test.

Dazu erstellen wir eine Tabelle der Verteilung empirischer Häufigkeiten, d.h. jene Frequenzen, die wir beobachten:

Theoretisch erwarten wir, dass die Frequenzen gleichmäßig verteilt sind, d. h. Die Häufigkeit wird proportional zwischen Jungen und Mädchen verteilt. Lassen Sie uns eine Tabelle mit theoretischen Frequenzen erstellen. Multiplizieren Sie dazu die Zeilensumme mit der Spaltensumme und dividieren Sie die resultierende Zahl durch die Gesamtsumme(n).


Die endgültige Berechnungstabelle sieht folgendermaßen aus:

χ2 = ∑(E - T)² / T

n = (R – 1), wobei R die Anzahl der Zeilen in der Tabelle ist.

In unserem Fall ist Chi-Quadrat = 4,21; n = 2.

Anhand der Tabelle der kritischen Werte des Kriteriums finden wir: Bei n = 2 und einer Fehlerquote von 0,05 beträgt der kritische Wert χ2 = 5,99.

Der resultierende Wert ist kleiner als der kritische Wert, was bedeutet, dass die Nullhypothese akzeptiert wird.

Fazit: Lehrer legen beim Schreiben von Merkmalen für das Kind keinen Wert auf das Geschlecht des Kindes.

Anwendung

Kritische Punkte der χ2-Verteilung

Tabelle 1

Abschluss

Studierende fast aller Fachrichtungen studieren am Ende des höheren Mathematikstudiums den Abschnitt „Wahrscheinlichkeitstheorie und mathematische Statistik“, in Wirklichkeit lernen sie nur einige grundlegende Konzepte und Ergebnisse kennen, die für die praktische Arbeit offensichtlich nicht ausreichen. In speziellen Lehrveranstaltungen werden die Studierenden in einige mathematische Forschungsmethoden eingeführt (z. B. „Prognose und technische und wirtschaftliche Planung“, „Technische und wirtschaftliche Analyse“, „Produktqualitätskontrolle“, „Marketing“, „Controlling“, „Mathematische Methoden der Prognose“) )“, „Statistik“ etc. – bei Studierenden wirtschaftswissenschaftlicher Fachrichtungen), allerdings ist die Darstellung in den meisten Fällen sehr gekürzt und formelhafter Natur. Daher ist das Wissen der Spezialisten für angewandte Statistik unzureichend.

Daher kommt dem Studiengang „Angewandte Statistik“ an technischen Universitäten und dem Studiengang „Ökonometrie“ an wirtschaftswissenschaftlichen Universitäten eine große Bedeutung zu, da es sich bei der Ökonometrie bekanntlich um die statistische Analyse spezifischer Wirtschaftsdaten handelt.

Wahrscheinlichkeitstheorie und mathematische Statistik vermitteln grundlegende Kenntnisse für die angewandte Statistik und Ökonometrie.

Sie sind für Fachkräfte für die praktische Arbeit notwendig.

Ich habe mir das kontinuierliche Wahrscheinlichkeitsmodell angesehen und versucht, seine Verwendung anhand von Beispielen zu zeigen.

Liste der verwendeten Literatur

1. Orlov A.I. Angewandte Statistik. M.: Verlag „Exam“, 2004.

2. Gmurman V.E. Wahrscheinlichkeitstheorie und mathematische Statistik. M.: Higher School, 1999. – 479 S.

3. Ayvozyan S.A. Wahrscheinlichkeitstheorie und angewandte Statistik, Bd. 1. M.: Unity, 2001. – 656 S.

4. Khamitov G.P., Vedernikova T.I. Wahrscheinlichkeiten und Statistiken. Irkutsk: BGUEP, 2006 – 272 S.

5. Ezhova L.N. Ökonometrie. Irkutsk: BGUEP, 2002. – 314 S.

6. Mosteller F. Fünfzig unterhaltsame Wahrscheinlichkeitsprobleme mit Lösungen. M.: Nauka, 1975. – 111 S.

7. Mosteller F. Wahrscheinlichkeit. M.: Mir, 1969. – 428 S.

8. Yaglom A.M. Wahrscheinlichkeit und Information. M.: Nauka, 1973. – 511 S.

9. Tschistjakow V.P. Kurs zur Wahrscheinlichkeitstheorie. M.: Nauka, 1982. – 256 S.

10. Kremer N.Sh. Wahrscheinlichkeitstheorie und mathematische Statistik. M.: UNITY, 2000. – 543 S.

11. Mathematische Enzyklopädie, Band 1. M.: Sowjetische Enzyklopädie, 1976. – 655 S.

12. http://psystat.at.ua/ – Statistik in Psychologie und Pädagogik. Artikel Chi-Quadrat-Test.

Der \(\chi^2\)-Test („Chi-Quadrat“, auch „Pearson-Anpassungstest“) findet in der Statistik eine äußerst breite Anwendung. Allgemein lässt sich sagen, dass damit die Nullhypothese getestet wird, dass eine beobachtete Zufallsvariable einem bestimmten theoretischen Verteilungsgesetz unterliegt (weitere Einzelheiten finden Sie beispielsweise unter). Die konkrete Formulierung der zu prüfenden Hypothese variiert von Fall zu Fall.

In diesem Beitrag beschreibe ich die Funktionsweise des \(\chi^2\)-Kriteriums anhand eines (hypothetischen) Beispiels aus der Immunologie. Stellen wir uns vor, wir hätten ein Experiment durchgeführt, um die Wirksamkeit der Unterdrückung der Entwicklung einer mikrobiellen Krankheit zu bestimmen, wenn dem Körper geeignete Antikörper zugeführt werden. An dem Experiment waren insgesamt 111 Mäuse beteiligt, die wir in zwei Gruppen mit jeweils 57 und 54 Tieren einteilten. Die erste Gruppe von Mäusen erhielt Injektionen pathogener Bakterien, gefolgt von der Einführung von Blutserum, das Antikörper gegen diese Bakterien enthielt. Tiere der zweiten Gruppe dienten als Kontrolle – sie erhielten nur Bakterieninjektionen. Nach einiger Zeit der Inkubation stellte sich heraus, dass 38 Mäuse starben und 73 überlebten. Von den Toten gehörten 13 zur ersten Gruppe und 25 zur zweiten (Kontrolle). Die in diesem Experiment getestete Nullhypothese lässt sich wie folgt formulieren: Die Verabreichung von Serum mit Antikörpern hat keinen Einfluss auf das Überleben von Mäusen. Mit anderen Worten argumentieren wir, dass die beobachteten Unterschiede im Überleben der Mäuse (77,2 % in der ersten Gruppe gegenüber 53,7 % in der zweiten Gruppe) völlig zufällig sind und nicht mit der Wirkung von Antikörpern zusammenhängen.

Die im Experiment gewonnenen Daten können in Form einer Tabelle dargestellt werden:

Gesamt

Bakterien + Serum

Nur Bakterien

Gesamt

Tabellen wie die abgebildete werden als Kontingenztabellen bezeichnet. Im betrachteten Beispiel hat die Tabelle eine Dimension von 2x2: Es gibt zwei Klassen von Objekten („Bakterien + Serum“ und „Nur Bakterien“), die nach zwei Kriterien („Tot“ und „Überlebt“) untersucht werden. Dies ist der einfachste Fall einer Kontingenztabelle: Natürlich kann sowohl die Anzahl der untersuchten Klassen als auch die Anzahl der Merkmale größer sein.

Um die oben genannte Nullhypothese zu testen, müssen wir wissen, wie die Situation wäre, wenn die Antikörper tatsächlich keinen Einfluss auf das Überleben von Mäusen hätten. Mit anderen Worten: Sie müssen rechnen erwartete Häufigkeiten für die entsprechenden Zellen der Kontingenztabelle. Wie geht das? Im Experiment starben insgesamt 38 Mäuse, das sind 34,2 % der Gesamtzahl der beteiligten Tiere. Wenn die Verabreichung von Antikörpern das Überleben der Mäuse nicht beeinträchtigt, sollte in beiden Versuchsgruppen der gleiche Prozentsatz an Mortalität beobachtet werden, nämlich 34,2 %. Wenn wir berechnen, wie viel 34,2 % von 57 und 54 sind, erhalten wir 19,5 und 18,5. Dies sind die erwarteten Sterblichkeitsraten in unseren Versuchsgruppen. Die erwarteten Überlebensraten werden auf ähnliche Weise berechnet: Da insgesamt 73 Mäuse überlebten, also 65,8 % der Gesamtzahl, betragen die erwarteten Überlebensraten 37,5 und 35,5. Erstellen wir eine neue Kontingenztabelle, nun mit den erwarteten Häufigkeiten:

Tot

Überlebende

Gesamt

Bakterien + Serum

Nur Bakterien

Gesamt

Wie wir sehen können, unterscheiden sich die erwarteten Häufigkeiten erheblich von den beobachteten, d. h. Die Verabreichung von Antikörpern scheint einen Einfluss auf das Überleben von mit dem Erreger infizierten Mäusen zu haben. Diesen Eindruck können wir mit dem Pearson-Anpassungstest \(\chi^2\) quantifizieren:

\[\chi^2 = \sum_()\frac((f_o - f_e)^2)(f_e),\]


wobei \(f_o\) und \(f_e\) die beobachteten bzw. erwarteten Häufigkeiten sind. Die Summierung erfolgt über alle Zellen der Tabelle. Für das betrachtete Beispiel haben wir also

\[\chi^2 = (13 – 19,5)^2/19,5 + (44 – 37,5)^2/37,5 + (25 – 18,5)^2/18,5 + (29 – 35,5)^2/35,5 = \]

Ist der resultierende Wert von \(\chi^2\) groß genug, um die Nullhypothese abzulehnen? Um diese Frage zu beantworten, ist es notwendig, den entsprechenden kritischen Wert des Kriteriums zu ermitteln. Die Anzahl der Freiheitsgrade für \(\chi^2\) wird berechnet als \(df = (R - 1)(C - 1)\), wobei \(R\) und \(C\) die Anzahl sind von Zeilen und Spalten in der Tabellenkonjugation. In unserem Fall \(df = (2 -1)(2 - 1) = 1\). Wenn wir die Anzahl der Freiheitsgrade kennen, können wir nun leicht den kritischen Wert \(\chi^2\) mithilfe der Standard-R-Funktion qchisq() ermitteln:


Somit überschreitet der Wert des Kriteriums \(\chi^2\) bei einem Freiheitsgrad nur in 5 % der Fälle 3,841. Der von uns ermittelte Wert von 6,79 übersteigt diesen kritischen Wert deutlich, was uns das Recht gibt, die Nullhypothese abzulehnen, dass es keinen Zusammenhang zwischen der Verabreichung von Antikörpern und dem Überleben infizierter Mäuse gibt. Wenn wir diese Hypothese ablehnen, laufen wir Gefahr, mit einer Wahrscheinlichkeit von weniger als 5 % falsch zu liegen.

Es ist zu beachten, dass die obige Formel für das Kriterium \(\chi^2\) bei der Arbeit mit Kontingenztabellen der Größe 2x2 leicht überhöhte Werte liefert. Der Grund dafür ist, dass die Verteilung des Kriteriums \(\chi^2\) selbst stetig ist, während die Häufigkeiten binärer Merkmale („gestorben“ / „überlebt“) per Definition diskret sind. In diesem Zusammenhang ist es üblich, bei der Berechnung des Kriteriums das sogenannte einzuführen Kontinuitätskorrektur, oder Yates-Änderung :

\[\chi^2_Y = \sum_()\frac((|f_o - f_e| - 0.5)^2)(f_e).\]

Pearson „Chi-Quadrat-Test mit Yates“ Kontinuitätskorrekturdaten: Mäuse X-Quadrat = 5,7923, df = 1, p-Wert = 0,0161


Wie wir sehen können, wendet R automatisch die Yates-Kontinuitätskorrektur an ( Chi-Quadrat-Test nach Pearson mit Kontinuitätskorrektur nach Yates). Der vom Programm berechnete Wert von \(\chi^2\) betrug 5,79213. Wir können die Nullhypothese, dass es keine Antikörperwirkung gibt, mit einer Wahrscheinlichkeit von knapp über 1 % (p-Wert = 0,0161) ablehnen.