Methoden der mathematischen Statistik kurz. Grundlagen der mathematischen Statistik. Histogramm der empirischen Verteilungsfunktion

Methoden mathematische Statistik


1. Einleitung

Die mathematische Statistik ist eine Wissenschaft, die Methoden zur Gewinnung, Beschreibung und Verarbeitung experimenteller Daten entwickelt, um die Muster zufälliger Massenphänomene zu untersuchen.

In der mathematischen Statistik lassen sich zwei Bereiche unterscheiden: die deskriptive Statistik und die induktive Statistik (statistische Inferenz). Die deskriptive Statistik befasst sich mit der Akkumulation, Systematisierung und Präsentation experimenteller Daten in einer geeigneten Form. Induktive Statistiken auf Basis dieser Daten erlauben bestimmte Rückschlüsse auf die Objekte, über die die Daten erhoben werden, oder Schätzungen ihrer Parameter.

Typische Bereiche der mathematischen Statistik sind:

1) Sampling-Theorie;

2) die Theorie der Schätzungen;

3) Testen statistischer Hypothesen;

4) Regressionsanalyse;

5) Varianzanalyse.

Die mathematische Statistik basiert auf einer Reihe von Anfangskonzepten, ohne die es unmöglich ist, moderne Methoden zur Verarbeitung experimenteller Daten zu untersuchen. In einigen der ersten von ihnen können wir das Konzept der allgemeinen Bevölkerung und der Stichprobe verwenden.

In der industriellen Massenproduktion ist es oft notwendig festzustellen, ob die Qualität des Produkts den Standards entspricht, ohne jedes hergestellte Produkt zu überprüfen. Da die Anzahl der hergestellten Produkte sehr groß ist oder die Prüfung von Produkten mit der Instandsetzung verbunden ist, wird eine kleine Anzahl von Produkten geprüft. Anhand dieser Prüfung muss ein Rückschluss auf die gesamte Produktserie gezogen werden. Natürlich kann man nicht sagen, dass alle Transistoren aus einer Charge von 1 Million Stück gut oder schlecht sind, indem man einen von ihnen überprüft. Da andererseits der Prozess der Auswahl von Proben für die Prüfung und die Prüfungen selbst zeitaufwändig sein und zu hohen Kosten führen können, sollte der Umfang der Produktprüfung so bemessen sein, dass sie eine zuverlässige Darstellung der gesamten Produktcharge geben kann der Mindestgröße. Dazu führen wir einige Konzepte ein.

Die Gesamtheit der untersuchten Objekte oder experimentellen Daten wird als allgemeine Population bezeichnet. Wir bezeichnen mit N die Anzahl der Objekte oder die Datenmenge, die die allgemeine Population ausmachen. Der Wert von N wird als Bevölkerungsgröße bezeichnet. Wenn N>>1, also N sehr groß ist, dann wird üblicherweise N = ¥ betrachtet.

Eine Zufallsstichprobe oder einfach eine Stichprobe ist ein Teil der Allgemeinbevölkerung, der zufällig aus dieser ausgewählt wird. Das Wort "zufällig" bedeutet, dass die Wahrscheinlichkeit, irgendein Objekt aus der Allgemeinbevölkerung auszuwählen, gleich ist. Dies ist eine wichtige Annahme, die jedoch in der Praxis oft nur schwer zu überprüfen ist.

Als Stichprobenumfang wird die Anzahl der Objekte oder die Datenmenge, aus der die Stichprobe besteht, bezeichnet und bezeichnet n. In Zukunft gehen wir davon aus, dass den Elementen der Stichprobe jeweils Zahlenwerte x 1 , x 2 , ... x n zugeordnet werden können. Dies können beispielsweise bei der Qualitätskontrolle von gefertigten Bipolartransistoren Messungen ihrer DC-Verstärkung sein.


2. Numerische Merkmale der Probe

2.1 Stichprobenmittelwert

Für eine bestimmte Stichprobe der Größe n der Stichprobenmittelwert

wird durch die Relation bestimmt

wobei x i der Wert der Probenelemente ist. Normalerweise ist es erforderlich, die statistischen Eigenschaften beliebiger Stichproben zu beschreiben, und nicht eine von ihnen. Dies bedeutet, dass es berücksichtigt wird mathematisches Modell, was eine ausreichend große Anzahl von Stichproben der Größe n voraussetzt. In diesem Fall werden die Stichprobenelemente als Zufallsvariablen X i betrachtet, wobei Werte x i mit einer Wahrscheinlichkeitsdichte f(x) angenommen werden, die die Wahrscheinlichkeitsdichte der allgemeinen Bevölkerung ist. Dann ist auch der Stichprobenmittelwert eine Zufallsvariable

gleich

Wie zuvor werden wir Zufallsvariablen mit Großbuchstaben und die Werte von Zufallsvariablen mit Kleinbuchstaben bezeichnen.

Der Durchschnittswert der Gesamtbevölkerung, aus der die Stichprobe gezogen wird, wird als allgemeiner Durchschnitt bezeichnet und mit m x bezeichnet. Es ist zu erwarten, dass bei einem signifikanten Stichprobenumfang der Stichprobenmittelwert nicht deutlich vom allgemeinen Mittelwert abweicht. Da der Stichprobenmittelwert eine Zufallsvariable ist, kann man ihn finden erwarteter Wert:

Somit ist die mathematische Erwartung des Stichprobenmittelwerts gleich dem allgemeinen Mittelwert. In diesem Fall ist der Stichprobenmittelwert eine unverzerrte Schätzung des Mittelwerts der Grundgesamtheit. Wir werden später auf diesen Begriff zurückkommen. Da der Stichprobenmittelwert eine Zufallsvariable ist, die um den allgemeinen Mittelwert schwankt, ist es wünschenswert, diese Schwankung anhand der Varianz des Stichprobenmittelwerts zu schätzen. Stellen Sie sich eine Stichprobe vor, deren Größe n viel kleiner ist als die Größe der Allgemeinbevölkerung N (n<< N). Предположим, что при формировании выборки характеристики генеральной совокупности не меняются, что эквивалентно предположению N = ¥. Тогда

Die Zufallsvariablen X i und X j (i¹j) können als unabhängig betrachtet werden, daher

Ersetzen Sie das Ergebnis in der Formel für die Varianz:

wobei s 2 die Populationsvarianz ist.

Aus dieser Formel folgt, dass mit zunehmendem Stichprobenumfang die Schwankungen des Stichprobenmittelwerts um den allgemeinen Mittelwert mit s 2 /n abnehmen. Lassen Sie uns das Obige an einem Beispiel veranschaulichen. Es gebe ein Zufallssignal mit mathematischem Erwartungswert bzw. Varianz gleich m x = 10, s 2 = 9.

Die Signalabtastwerte werden zu gleich beabstandeten Zeitpunkten t 1 , t 2 , ... genommen.

X(t)

x1

t 1 t 2 . . . t n t

Da die Messwerte Zufallsvariablen sind, bezeichnen wir sie als X(t 1), X(t 2), . . . ,X(tn).

Bestimmen wir die Anzahl der Samples so, dass die mittlere quadratische Abweichung der Schätzung der mathematischen Erwartung des Signals 1 % seiner mathematischen Erwartung nicht überschreitet. Da m x = 10 ist, ist es notwendig, dass

Andererseits erhalten wir daher oder Daher, dass n ³ 900 zählt.

2.2 Stichprobenabweichung

Aus Stichprobendaten ist es wichtig, nicht nur den Stichprobenmittelwert zu kennen, sondern auch die Streuung der Stichprobenwerte um den Stichprobenmittelwert. Wenn der Stichprobenmittelwert eine Schätzung des allgemeinen Mittelwerts ist, muss die Stichprobenvarianz eine Schätzung der allgemeinen Varianz sein. Stichprobenabweichung

für eine aus Zufallsvariablen bestehende Stichprobe wird wie folgt bestimmt

Unter Verwendung dieser Darstellung der Stichprobenvarianz finden wir ihren mathematischen Erwartungswert

ZUFÄLLIGE WERTE UND DIE GESETZE IHRER VERTEILUNG.

Zufällig eine Größe genannt, die Werte abhängig von der Kombination zufälliger Umstände annimmt. Unterscheiden diskret und zufällig kontinuierlich Mengen.

Diskret Eine Größe wird aufgerufen, wenn sie eine abzählbare Menge von Werten annimmt. ( Beispiel: die Anzahl der Patienten in der Arztpraxis, die Anzahl der Briefe pro Seite, die Anzahl der Moleküle in einem bestimmten Band).

kontinuierlich eine Größe genannt, die innerhalb eines bestimmten Intervalls Werte annehmen kann. ( Beispiel: Lufttemperatur, Körpergewicht, Körpergröße usw.)

Vertriebsrecht Eine Zufallsvariable ist eine Menge möglicher Werte dieser Größe und, diesen Werten entsprechend, Wahrscheinlichkeiten (oder Häufigkeiten des Auftretens).

BEISPIEL:

x x 1 x2 x 3 x4 ... x n
P S. 1 S. 2 S. 3 S. 4 ... p n
x x 1 x2 x 3 x4 ... x n
m m 1 m2 m 3 m4 ... m n

NUMERISCHE EIGENSCHAFTEN VON ZUFÄLLIGEN WERTEN.

In vielen Fällen können zusammen mit der Verteilung einer Zufallsvariablen oder statt dessen Informationen über diese Größen durch sogenannte numerische Parameter bereitgestellt werden Numerische Eigenschaften einer Zufallsvariablen . Die am häufigsten verwendeten davon:

1 .Erwarteter Wert - (Durchschnittswert) einer Zufallsvariablen ist die Summe der Produkte aller ihrer möglichen Werte und der Wahrscheinlichkeiten dieser Werte:

2 .Streuung zufällige Variable:


3 .Standardabweichung :

Die DREI-SIGMA-Regel - ist eine Zufallsvariable nach einem Normalgesetz verteilt, so überschreitet die Abweichung dieses Wertes vom absoluten Mittelwert nicht das Dreifache der Standardabweichung

ZON GAUSS - NORMALES VERTEILUNGSGESETZ

Oft werden Werte verteilt normales Gesetz (Gaußsches Gesetz). Hauptmerkmal : Es ist das begrenzende Gesetz, an das sich andere Verteilungsgesetze annähern.

Eine Zufallsvariable ist normalverteilt, wenn sie Wahrscheinlichkeitsdichte sieht aus wie:



M(X)- mathematische Erwartung einer Zufallsvariablen;

S- Standardabweichung.

Wahrscheinlichkeitsdichte(Verteilungsfunktion) zeigt, wie sich die Wahrscheinlichkeit bezogen auf das Intervall ändert dx Zufallsvariable, abhängig vom Wert der Variablen selbst:


GRUNDBEGRIFFE DER MATHEMATISCHEN STATISTIK

Mathematische Statistiken- ein Zweig der angewandten Mathematik, direkt angrenzend an die Wahrscheinlichkeitstheorie. Der Hauptunterschied zwischen mathematischer Statistik und Wahrscheinlichkeitstheorie besteht darin, dass die mathematische Statistik keine Auswirkungen auf Verteilungsgesetze und numerische Eigenschaften von Zufallsvariablen berücksichtigt, sondern Näherungsverfahren zum Auffinden dieser Gesetze und numerischen Eigenschaften auf der Grundlage experimenteller Ergebnisse.

Grundlegendes Konzept mathematische Statistik sind:

1. Durchschnittsbevölkerung;

2. Probe;

3. Variationsserie;

4. Mode;

5. Median;

6. Perzentil,

7. Frequenzpolygon,

8. Balkendiagramm.

Bevölkerung- eine große statistische Grundgesamtheit, aus der einige der Forschungsobjekte ausgewählt werden

(Beispiel: die gesamte Bevölkerung der Region, Studenten der Stadt usw.)

Stichprobe (Stichprobe)- eine Reihe von Objekten, die aus der allgemeinen Bevölkerung ausgewählt wurden.

Variationsreihe- statistische Verteilung, bestehend aus Varianten (Werten einer Zufallsvariablen) und ihren entsprechenden Häufigkeiten.

Beispiel:

X, kg
m

x- der Wert einer Zufallsvariablen (Masse der Mädchen im Alter von 10 Jahren);

m- Häufigkeit des Auftretens.

Mode– der Wert der Zufallsvariablen, der der höchsten Auftrittshäufigkeit entspricht. (Im obigen Beispiel ist 24 kg der häufigste Wert für Mode: m = 20).

Median- der Wert einer Zufallsvariablen, die die Verteilung halbiert: Die Hälfte der Werte befindet sich rechts vom Median, die Hälfte (nicht mehr) - links.

Beispiel:

1, 1, 1, 1, 1. 1, 2, 2, 2, 3 , 3, 4, 4, 5, 5, 5, 5, 6, 6, 7 , 7, 7, 7, 7, 7, 8, 8, 8, 8, 8 , 8, 9, 9, 9, 10, 10, 10, 10, 10, 10

Im Beispiel beobachten wir 40 Werte einer Zufallsvariablen. Alle Werte sind unter Berücksichtigung der Häufigkeit ihres Auftretens aufsteigend geordnet. Es ist ersichtlich, dass sich 20 (die Hälfte) der 40 Werte rechts vom ausgewählten Wert 7 befinden. 7 ist also der Median.

Zur Charakterisierung der Streuung finden wir die Werte, die nicht höher als 25 und 75 % der Messergebnisse waren. Diese Werte werden als 25. und 75. bezeichnet Perzentile . Wenn der Median die Verteilung halbiert, werden das 25. und 75. Perzentil um ein Viertel davon abgeschnitten. (Der Median selbst kann übrigens als 50. Perzentil betrachtet werden.) Wie Sie dem Beispiel entnehmen können, sind das 25. und 75. Perzentil 3 bzw. 8.

benutzen diskret (Punkt) statistische Verteilung und kontinuierlich (Intervall) statistische Verteilung.

Zur Verdeutlichung sind statistische Verteilungen im Formular grafisch dargestellt Frequenzpolygon oder - Histogramme .

Frequenzpolygon- eine unterbrochene Linie, deren Segmente Punkte mit Koordinaten verbinden ( x 1 , m 1), (x2,m2), ..., oder für Polygon der relativen Häufigkeiten - mit Koordinaten ( x 1 , p * 1), (x 2 , p * 2), ...(Abb.1).


m m ich /n f(x)

Abb.1 Abb.2

Häufigkeitshistogramm- eine Reihe benachbarter Rechtecke, die auf einer geraden Linie aufgebaut sind (Abb. 2), die Basen der Rechtecke sind gleich und gleich dx , und die Höhen sind gleich dem Verhältnis von Frequenz zu dx , oder R * Zu dx (Wahrscheinlichkeitsdichte).

Beispiel:

x, kg 2,7 2,8 2,9 3,0 3,1 3,2 3,3 3,4 3,5 3,6 3,7 3,8 3,9 4,0 4,1 4,2 4,3 4,4
m

Frequenzpolygon

Das Verhältnis der relativen Häufigkeit zur Breite des Intervalls wird genannt Wahrscheinlichkeitsdichte f(x)=m i / n dx = p* i / dx

Ein Beispiel für den Aufbau eines Histogramms .

Lassen Sie uns die Daten aus dem vorherigen Beispiel verwenden.

1. Berechnung der Anzahl der Klassenintervalle

wo n - Anzahl der Beobachtungen. In unserem Fall n = 100 . Somit:

2. Berechnung der Intervallbreite dx :

,

3. Erstellung einer Intervallreihe:

dx 2.7-2.9 2.9-3.1 3.1-3.3 3.3-3.5 3.5-3.7 3.7-3.9 3.9-4.1 4.1-4.3 4.3-4.5
m
f(x) 0.3 0.75 1.25 0.85 0.55 0.6 0.4 0.25 0.05

Balkendiagramm

* Diese Arbeit ist keine wissenschaftliche Arbeit, stellt keine abschließende Qualifikationsarbeit dar und ist das Ergebnis der Aufbereitung, Strukturierung und Formatierung der gesammelten Informationen, die als Materialquelle für die eigene Vorbereitung der pädagogischen Arbeit dienen soll.

    Einführung.

    Verweise.

Methoden der mathematischen Statistik

    Einführung.

    Grundbegriffe der mathematischen Statistik.

    Statistische Aufbereitung der Ergebnisse psychologischer und pädagogischer Forschung.

    Verweise.

Methoden der mathematischen Statistik

    Einführung.

    Grundbegriffe der mathematischen Statistik.

    Statistische Aufbereitung der Ergebnisse psychologischer und pädagogischer Forschung.

    Verweise.

      Einführung.

Die Anwendung der Mathematik auf andere Wissenschaften ist nur in Verbindung mit einer tiefen Theorie eines bestimmten Phänomens sinnvoll. Das gilt es zu beachten, um nicht in ein simples Formelspiel zu verfallen, hinter dem kein wirklicher Inhalt steckt.

Akademiemitglied Yu.A. Metropolitan

Theoretische Forschungsmethoden in Psychologie und Pädagogik ermöglichen es, die qualitativen Merkmale der untersuchten Phänomene aufzudecken. Diese Eigenschaften werden vollständiger und tiefer, wenn das gesammelte empirische Material einer quantitativen Verarbeitung unterzogen wird. Das Problem quantitativer Messungen im Rahmen psychologischer und pädagogischer Forschung ist jedoch sehr komplex. Diese Komplexität liegt vor allem in der subjektiv-kausalen Vielfalt pädagogischen Handelns und seiner Ergebnisse, im Messobjekt selbst, das sich in ständiger Bewegung und Veränderung befindet. Gleichzeitig ist die Einführung quantitativer Indikatoren in die Studie heute ein notwendiger und obligatorischer Bestandteil, um objektive Daten über die Ergebnisse pädagogischer Arbeit zu erhalten. In der Regel können diese Daten sowohl durch direkte oder indirekte Messung verschiedener Komponenten des pädagogischen Prozesses als auch durch Quantifizierung der relevanten Parameter seines angemessen konstruierten mathematischen Modells gewonnen werden. Zu diesem Zweck werden bei der Untersuchung von Problemen der Psychologie und Pädagogik Methoden der mathematischen Statistik verwendet. Mit ihrer Hilfe werden verschiedene Aufgaben gelöst: Aufbereitung von Faktenmaterial, Gewinnung neuer, zusätzlicher Daten, Begründung der wissenschaftlichen Organisation der Studie und andere.

2. Grundbegriffe der mathematischen Statistik

Eine außerordentlich wichtige Rolle bei der Analyse vieler psychologischer und pädagogischer Phänomene spielen Durchschnittswerte, die ein verallgemeinertes Merkmal einer qualitativ homogenen Population nach einem bestimmten quantitativen Merkmal sind. Es ist beispielsweise unmöglich, die durchschnittliche Fachrichtung oder die durchschnittliche Nationalität von Universitätsstudenten zu berechnen, da es sich um qualitativ heterogene Phänomene handelt. Andererseits ist es möglich und notwendig, im Durchschnitt ein numerisches Merkmal ihrer schulischen Leistung (durchschnittliche Punktzahl), die Wirksamkeit methodischer Systeme und Techniken usw. zu bestimmen.

In der psychologischen und pädagogischen Forschung werden normalerweise verschiedene Arten von Durchschnittswerten verwendet: arithmetisches Mittel, geometrisches Mittel, Median, Modus und andere. Die gebräuchlichsten sind das arithmetische Mittel, der Median und der Modus.

Das arithmetische Mittel wird in Fällen verwendet, in denen eine direkt proportionale Beziehung zwischen der definierenden Eigenschaft und diesem Merkmal besteht (z. B. wenn sich die Leistung der Studiengruppe verbessert, verbessert sich die Leistung jedes ihrer Mitglieder).

Das arithmetische Mittel ist der Quotient aus der Division der Summe der Werte durch ihre Anzahl und wird nach folgender Formel berechnet:

wobei X das arithmetische Mittel ist; X1, X2, X3 ... Xn - die Ergebnisse einzelner Beobachtungen (Techniken, Aktionen),

n - die Anzahl der Beobachtungen (Methoden, Aktionen),

Die Summe der Ergebnisse aller Beobachtungen (Techniken, Aktionen).

Der Median (Me) ist ein Maß für die durchschnittliche Position, die den Wert eines Merkmals auf einer geordneten (auf der Grundlage steigender oder fallender) Skala charakterisiert, die der Mitte der untersuchten Population entspricht. Der Median kann für ordinale und quantitative Merkmale bestimmt werden. Die Position dieses Werts wird durch die Formel bestimmt: Medianposition = (n + 1) / 2

Zum Beispiel. Nach den Ergebnissen der Studie wurde Folgendes festgestellt:

– „ausgezeichnete“ Studierende – 5 Personen aus den Versuchsteilnehmern;

– 18 Personen lernen „gut“;

- für "befriedigend" - 22 Personen;

- für "ungenügend" - 6 Personen.

Da insgesamt N = 54 Personen an dem Experiment teilgenommen haben, ist die Mitte der Stichprobe gleich Personen. Daraus lässt sich schließen, dass mehr als die Hälfte der Studierenden unter der Note „gut“ studieren, das heißt, der Median ist mehr als „befriedigend“, aber weniger als „gut“ (siehe Abbildung).

Modus (Mo) ist neben anderen Werten der häufigste typische Merkmalswert. Sie entspricht der Klasse mit der höchsten Häufigkeit. Diese Klasse wird modaler Wert genannt.

Zum Beispiel.

Bei der Frage des Fragebogens: „Geben Sie den Kenntnisstand einer Fremdsprache an“, wurden die Antworten verteilt:

1 - fließend - 25

2 - Ich weiß genug, um mich zu verständigen - 54

3 - Ich weiß, aber ich habe Kommunikationsschwierigkeiten - 253

4 - Ich verstehe nur schwer - 173

5 - weiß nicht - 28

Offensichtlich ist die typischste Bedeutung hier „Ich weiß, aber ich habe Schwierigkeiten zu kommunizieren“, was modal sein wird. Der Modus ist also -253.

Beim Einsatz mathematischer Methoden in der psychologischen und pädagogischen Forschung kommt der Berechnung von Varianz und Root-Mean-Square (Standard)-Abweichungen eine große Bedeutung zu.

Die Varianz ist gleich dem mittleren Quadrat der Abweichungen des Werts der Optionen vom Mittelwert. Als eines der Merkmale einzelner Ergebnisse fungiert die Streuung der Werte der untersuchten Variablen (z. B. Schülernoten) um den Mittelwert. Die Berechnung der Streuung erfolgt durch Ermittlung von: Abweichungen vom Mittelwert; das Quadrat der angegebenen Abweichung; die Summe der Abweichungsquadrate und der Mittelwert des Abweichungsquadrats (siehe Tabelle 6.1).

Der Dispersionswert wird in verschiedenen statistischen Berechnungen verwendet, ist aber nicht direkt beobachtbar. Die Größe, die in direktem Zusammenhang mit dem Inhalt der beobachteten Variablen steht, ist die Standardabweichung.

Tabelle 6.1

Beispiel für die Abweichungsberechnung

Bedeutung

Indikator

Abweichung

vom Durchschnitt

Abweichungen

2 – 3 = – 1

Die Standardabweichung bestätigt die Typizität und Aussagekraft des arithmetischen Mittels, spiegelt das Maß für die Schwankung der Zahlenwerte der Vorzeichen wider, aus denen der Mittelwert abgeleitet wird. Sie ist gleich der Quadratwurzel der Streuung und wird durch die Formel bestimmt:

wobei: - quadratischer Mittelwert. Bei einer kleinen Anzahl von Beobachtungen (Aktionen) - weniger als 100 - sollte der Wert der Formel nicht "N", sondern "N - 1" angegeben werden.

Das arithmetische Mittel und das mittlere Quadrat sind die Hauptmerkmale der während der Studie erzielten Ergebnisse. Sie ermöglichen es Ihnen, die Daten zusammenzufassen, zu vergleichen und die Vorteile eines psychologischen und pädagogischen Systems (Programms) gegenüber einem anderen festzustellen.

Die mittlere quadratische (Standard-)Abweichung wird häufig als Streuungsmaß für verschiedene Merkmale verwendet.

Bei der Auswertung der Studienergebnisse ist es wichtig, die Streuung einer Zufallsvariablen um den Mittelwert zu bestimmen. Diese Streuung wird mit dem Gaußschen Gesetz (dem Gesetz der Normalverteilung der Wahrscheinlichkeit einer Zufallsvariablen) beschrieben. Die Essenz des Gesetzes besteht darin, dass bei der Messung eines bestimmten Attributs in einem bestimmten Satz von Elementen aus vielen unkontrollierbaren Gründen immer Abweichungen in beide Richtungen von der Norm auftreten, und je größer die Abweichungen sind, desto seltener treten sie auf.

Die weitere Verarbeitung der Daten kann ergeben: Variationskoeffizient (Stabilität) das untersuchte Phänomen, das der Prozentsatz der Standardabweichung zum arithmetischen Mittel ist; Maß der Schräglage, die zeigt, in welche Richtung die überwiegende Anzahl von Abweichungen gerichtet ist; Maß an Coolness, die den Grad der Akkumulation von Werten einer Zufallsvariablen um den Mittelwert usw. zeigt. All diese Statistiken helfen, die Anzeichen der untersuchten Phänomene besser zu identifizieren.

Assoziationsmaße zwischen Variablen. Beziehungen (Abhängigkeiten) zwischen zwei oder mehr Variablen in der Statistik werden genannt Korrelation. Sie wird anhand des Wertes des Korrelationskoeffizienten geschätzt, der ein Maß für den Grad und die Größe dieses Zusammenhangs ist.

Es gibt viele Korrelationskoeffizienten. Betrachten wir nur einen Teil davon, der das Vorhandensein einer linearen Beziehung zwischen den Variablen berücksichtigt. Ihre Wahl hängt von den Skalen zur Messung der Variablen ab, deren Beziehung beurteilt werden muss. Die Pearson- und Spearman-Koeffizienten werden am häufigsten in der Psychologie und Pädagogik verwendet.

Betrachten Sie die Berechnung der Werte der Korrelationskoeffizienten an konkreten Beispielen.

Beispiel 1. Gemessen werden zwei Vergleichsvariablen X (Familienstand) und Y (Ausschluss von der Universität) auf einer dichotomen Skala (ein Sonderfall der Titelskala). Um die Beziehung zu bestimmen, verwenden wir den Pearson-Koeffizienten.

In Fällen, in denen die Häufigkeit des Auftretens unterschiedlicher Werte der Variablen X und Y nicht berechnet werden muss, ist es zweckmäßig, den Korrelationskoeffizienten mithilfe einer Kontingenztabelle (siehe Tabellen 6.2, 6.3, 6.4) zu berechnen, in der die Anzahl angegeben ist von gemeinsamen Vorkommen von Wertepaaren für zwei Variablen (Merkmale) . A - die Anzahl der Fälle, in denen die Variable X einen Wert gleich Null hat und gleichzeitig die Variable Y einen Wert gleich Eins hat; B - die Anzahl der Fälle, in denen die Variablen X und Y gleichzeitig Werte gleich eins haben; C ist die Anzahl der Fälle, in denen die Variablen X und Y gleichzeitig Werte gleich Null haben; D ist die Häufigkeit, mit der die Variable X einen Wert gleich Eins hat und gleichzeitig die Variable Y einen Wert gleich Null hat.

Tabelle 6.2

Allgemeine Notfalltabelle

Merkmal X

Im Allgemeinen lautet die Formel für den Pearson-Korrelationskoeffizienten für dichotome Daten

Tabelle 6.3

Ein Beispiel für Daten in einer dichotomen Skala

Setzen wir Daten aus der Kontingenztabelle (siehe Tabelle 6.4) entsprechend dem betrachteten Beispiel in die Formel ein:

So beträgt der Pearson-Korrelationskoeffizient für das ausgewählte Beispiel 0,32, d. h. der Zusammenhang zwischen dem Familienstand der Studierenden und den Tatsachen des Ausschlusses von der Universität ist unbedeutend.

Beispiel 2. Wenn beide Variablen in Ordnungsskalen gemessen werden, wird der Rangkorrelationskoeffizient (Rs) nach Spearman als Maß für die Assoziation verwendet. Er wird nach der Formel berechnet

wobei Rs der Rangkorrelationskoeffizient nach Spearman ist; Di ist die Differenz zwischen den Rängen der verglichenen Objekte; N ist die Anzahl der verglichenen Objekte.

Der Wert des Spearman-Koeffizienten variiert von –1 bis +1. Im ersten Fall besteht eine eindeutige, aber entgegengesetzt gerichtete Beziehung zwischen den analysierten Variablen (mit einer Erhöhung der Werte der einen, der Werte der anderen verkleinern). Im zweiten Fall steigt mit dem Wachstum der Werte einer Variablen der Wert der zweiten Variablen proportional an. Wenn der Wert von Rs gleich Null ist oder einen nahe daran liegenden Wert hat, dann besteht keine signifikante Beziehung zwischen den Variablen.

Als Beispiel für die Berechnung des Spearman-Koeffizienten verwenden wir die Daten aus Tabelle 6.5.

Tabelle 6.5

Daten und Zwischenergebnisse der Berechnung des Wertes des Koeffizienten

Rangkorrelation Rs

Qualitäten

Von einem Experten zugewiesene Ränge

Rangunterschied

Rangunterschied zum Quadrat

–1
–1
–1

Summe der quadrierten Rangunterschiede Di = 22

Setzen Sie die Beispieldaten in die Formel für den Smirman-Koeffizienten ein:

Die Ergebnisse der Berechnung erlauben die Aussage, dass zwischen den betrachteten Variablen ein recht ausgeprägter Zusammenhang besteht.

Statistische Überprüfung einer wissenschaftlichen Hypothese. Der Beweis der statistischen Zuverlässigkeit des experimentellen Einflusses unterscheidet sich erheblich vom Beweis in Mathematik und formaler Logik, wo die Schlussfolgerungen universellerer Natur sind: Statistische Beweise sind nicht so streng und endgültig – sie erlauben immer das Risiko, Fehler in den Schlussfolgerungen zu machen und Daher wird die Gültigkeit der einen oder anderen nicht endgültig durch statistische Methoden bewiesen Schlussfolgerung, sondern ein Maß für die Wahrscheinlichkeit, eine bestimmte Hypothese zu akzeptieren.

Eine pädagogische Hypothese (eine wissenschaftliche Annahme über den Vorteil der einen oder anderen Methode etc.) wird im Prozess der statistischen Analyse in die Sprache der statistischen Wissenschaft übersetzt und in mindestens zwei statistische Hypothesen umformuliert. Die erste (Haupt) wird aufgerufen Nullhypothese(H 0), in der der Forscher über seine Ausgangslage spricht. Er scheint (a priori) zu erklären, dass die neue Methode (vorgeschlagen von ihm, seinen Kollegen oder Gegnern) keine Vorteile hat, und deshalb ist der Forscher von Anfang an psychologisch bereit, eine ehrliche wissenschaftliche Position einzunehmen: die Unterschiede zwischen den neue und alte Methoden werden gleich Null deklariert. In einem anderen alternative Hypothese(H 1) wird eine Vermutung über den Vorteil des neuen Verfahrens getroffen. Manchmal werden mehrere Alternativhypothesen mit entsprechender Notation aufgestellt.

Zum Beispiel die Hypothese über den Vorteil der alten Methode (H 2). Alternativhypothesen werden akzeptiert, wenn und nur wenn die Nullhypothese widerlegt wird. Dies geschieht in Fällen, in denen die Unterschiede beispielsweise in den arithmetischen Mittelwerten der Versuchs- und Kontrollgruppe so signifikant (statistisch signifikant) sind, dass das Fehlerrisiko bei der Ablehnung der Nullhypothese und der Annahme der Alternative eine der drei akzeptierten nicht überschreitet Signifikanzniveaus statistische Inferenz:

- die erste Ebene - 5% (in wissenschaftlichen Texten schreiben sie manchmal p \u003d 5% oder a? 0,05, wenn sie in Anteilen dargestellt werden), wobei das Fehlerrisiko in der Schlussfolgerung in fünf von hundert theoretisch möglichen Fällen zulässig ist Experimente mit einer streng zufälligen Auswahl der Probanden für jedes Experiment;

- die zweite Ebene - 1%, d.h. dementsprechend ist das Risiko, einen Fehler zu machen, nur in einem von hundert Fällen zulässig (a? 0,01, mit den gleichen Anforderungen);

- die dritte Stufe - 0,1 %, d.h. das Risiko, einen Fehler zu machen, ist nur in einem Fall von tausend erlaubt (a? 0,001). Die letzte Signifikanzstufe stellt sehr hohe Anforderungen an die Begründung der Verlässlichkeit der Versuchsergebnisse und wird daher selten verwendet.

Beim Vergleich der arithmetischen Mittelwerte der Versuchs- und Kontrollgruppe ist es wichtig, nicht nur festzustellen, welcher Durchschnitt größer ist, sondern auch, um wie viel größer. Je kleiner der Unterschied zwischen ihnen ist, desto akzeptabler ist die Nullhypothese über das Fehlen statistisch signifikanter (signifikanter) Unterschiede. Im Gegensatz zum Denken auf der Ebene des gewöhnlichen Bewusstseins, das dazu neigt, die durch Erfahrung erzielten Unterschiede in den Durchschnittswerten als Tatsache und Grundlage für Schlussfolgerungen wahrzunehmen, wird ein Lehrer-Forscher, der mit der Logik statistischer Schlussfolgerungen vertraut ist, sich nicht überstürzt darauf einlassen Fälle. Er wird wahrscheinlich davon ausgehen, dass die Unterschiede zufällig sind, eine Nullhypothese über das Fehlen signifikanter Unterschiede in den Ergebnissen der Versuchs- und Kontrollgruppe aufstellen und erst nach Widerlegung der Nullhypothese die alternative Hypothese akzeptieren.

Damit wird die Frage nach Differenzen im Rahmen wissenschaftlichen Denkens auf eine andere Ebene verlagert. Es geht nicht nur um Unterschiede (die gibt es fast immer), sondern um die Größe dieser Unterschiede und damit - um die Bestimmung dieses Unterschieds und der Grenze, nach der man sagen kann: Ja, die Unterschiede sind nicht zufällig, sie sind statistisch signifikant , was bedeutet, dass die Probanden dieser beiden Gruppen nach dem Experiment nicht mehr zu einer (wie bisher), sondern zu zwei unterschiedlichen Allgemeinpopulationen gehören und dass sich der Vorbereitungsstand der potenziell zu diesen Populationen gehörenden Schüler signifikant unterscheiden wird. Um die Grenzen dieser Unterschiede aufzuzeigen, werden die sog Schätzungen allgemeiner Parameter.

Überlegen Sie anhand eines konkreten Beispiels (siehe Tabelle 6.6), wie die mathematische Statistik verwendet werden kann, um die Nullhypothese zu widerlegen oder zu bestätigen.

Angenommen, es soll festgestellt werden, ob die Effektivität der Gruppenaktivitäten der Schüler vom Entwicklungsstand der zwischenmenschlichen Beziehungen in der Lerngruppe abhängt. Als Nullhypothese wird angenommen, dass eine solche Abhängigkeit nicht besteht, und alternativ eine Abhängigkeit besteht. Zu diesem Zweck werden die Ergebnisse der Wirksamkeit von Aktivitäten in zwei Gruppen verglichen, von denen eine in diesem Fall als Versuchsgruppe und die zweite als Kontrollgruppe fungiert. Um festzustellen, ob der Unterschied zwischen den Durchschnittswerten der Leistungsindikatoren in der ersten und zweiten Gruppe signifikant (signifikant) ist, muss die statistische Signifikanz dieses Unterschieds berechnet werden. Dazu können Sie t - Student-Kriterium verwenden. Es wird nach der Formel berechnet:

wo X 1 und X 2 - das arithmetische Mittel der Variablen in den Gruppen 1 und 2; M 1 und M 2 sind die Werte der durchschnittlichen Fehler, die nach folgender Formel berechnet werden:

wo ist der quadratische Mittelwert, berechnet nach Formel (2).

Lassen Sie uns die Fehler für die erste Reihe (Versuchsgruppe) und die zweite Reihe (Kontrollgruppe) bestimmen:

Wir finden den Wert von t - das Kriterium nach der Formel:

Nachdem der Wert des t-Kriteriums berechnet wurde, muss anhand einer speziellen Tabelle das Niveau der statistischen Signifikanz der Unterschiede zwischen den durchschnittlichen Leistungsindikatoren in den Versuchs- und Kontrollgruppen bestimmt werden. Je höher der Wert des t-Kriteriums, desto höher die Signifikanz der Unterschiede.

Dazu vergleichen wir das berechnete t mit dem tabellarischen t. Der Tabellenwert wird unter Berücksichtigung des gewählten Konfidenzniveaus (p = 0,05 oder p = 0,01) und auch in Abhängigkeit von der Anzahl der Freiheitsgrade ausgewählt, die sich aus der Formel ergibt:

wobei U die Anzahl der Freiheitsgrade ist; N 1 und N 2 - die Anzahl der Messungen in der ersten und zweiten Reihe. In unserem Beispiel ist U = 7 + 7 -2 = 12.

Tabelle 6.6

Daten und Zwischenergebnisse der Berechnung der Signifikanz der Statistik

Mittlere Unterschiede

Experimentelle Gruppe

Kontrollgruppe

Der Wert der Leistung

Für Tabelle t - Kriterium finden wir, dass der Wert von t Tabelle. = 3,055 für das Ein-Prozent-Niveau (S

Der Lehrer-Forscher sollte sich jedoch daran erinnern, dass das Vorhandensein einer statistischen Signifikanz der Differenz der Durchschnittswerte ein wichtiges, aber nicht das einzige Argument für das Vorhandensein oder Fehlen einer Beziehung (Abhängigkeit) zwischen Phänomenen oder Variablen ist . Daher ist es notwendig, andere Argumente zur quantitativen oder inhaltlichen Begründung eines möglichen Zusammenhangs heranzuziehen.

Mehrdimensionale Methoden der Datenanalyse. Die Analyse der Beziehung zwischen einer großen Anzahl von Variablen wird unter Verwendung multivariater Methoden der statistischen Verarbeitung durchgeführt. Der Zweck der Anwendung solcher Methoden besteht darin, verborgene Muster sichtbar zu machen und die wichtigsten Beziehungen zwischen Variablen hervorzuheben. Beispiele für solche multivariaten statistischen Verfahren sind:

    - Faktorenanalyse;

    - Clusteranalyse;

    - Varianzanalyse;

    - Regressionsanalyse;

    – latente Strukturanalyse;

    – mehrdimensionale Skalierung und andere.

Faktorenanalyse ist es, Faktoren zu identifizieren und zu interpretieren. Ein Faktor ist eine verallgemeinerte Größe, die es erlaubt, einen Teil der Informationen zu komprimieren, also in verständlicher Form darzustellen. Beispielsweise identifiziert die Faktorentheorie der Persönlichkeit eine Reihe von verallgemeinerten Verhaltensmerkmalen, die in diesem Fall als Persönlichkeitsmerkmale bezeichnet werden.

Clusteranalyse können Sie das führende Feature und die Hierarchie der Feature-Beziehungen hervorheben.

Varianzanalyse- eine statistische Methode zur Untersuchung einer oder mehrerer gleichzeitig wirkender und unabhängiger Variablen auf die Variabilität eines beobachteten Merkmals. Seine Besonderheit besteht darin, dass das beobachtete Merkmal nur quantitativ sein kann, während die erklärenden Merkmale sowohl quantitativ als auch qualitativ sein können.

Regressionsanalyse ermöglicht es Ihnen, eine quantitative (numerische) Abhängigkeit des Durchschnittswerts von Änderungen im resultierenden Attribut (erklärt) von Änderungen in einem oder mehreren Attributen (erklärende Variablen) zu identifizieren. In der Regel wird diese Art der Analyse verwendet, wenn es darum geht, herauszufinden, wie stark sich der Durchschnittswert eines Attributs ändert, wenn sich ein anderes Attribut um eins ändert.

Latente Strukturanalyse stellt eine Reihe von analytischen und statistischen Verfahren dar, um versteckte Variablen (Merkmale) sowie die interne Struktur der Beziehungen zwischen ihnen zu identifizieren. Sie ermöglicht es, die Erscheinungsformen komplexer Zusammenhänge direkt nicht beobachtbarer Merkmale sozialpsychologischer und pädagogischer Phänomene zu erforschen. Die latente Analyse kann die Grundlage für die Modellierung dieser Beziehungen sein.

Mehrdimensionale Skalierung bietet eine visuelle Bewertung der Ähnlichkeit oder des Unterschieds zwischen einigen Objekten, die durch eine große Anzahl verschiedener Variablen beschrieben werden. Diese Unterschiede werden als Abstand zwischen den geschätzten Objekten in einem mehrdimensionalen Raum dargestellt.

3. Statistische Aufbereitung der psychologischen und pädagogischen Ergebnisse

Forschung

In jedem Studium ist es immer wichtig, den Massencharakter und die Repräsentativität (Repräsentativität) der Studienobjekte zu gewährleisten. Um dieses Problem zu lösen, greifen sie in der Regel auf mathematische Methoden zurück, um die Mindestgröße der zu untersuchenden Objekte (Gruppen von Befragten) zu berechnen, um auf dieser Grundlage objektive Aussagen treffen zu können.

Entsprechend dem Grad der Vollständigkeit der Abdeckung der primären Einheiten unterteilt die Statistik die Forschung in kontinuierliche, wenn alle Einheiten des untersuchten Phänomens untersucht werden, und selektiv, wenn nur ein Teil der interessierenden Bevölkerung nach einem bestimmten Merkmal untersucht wird . Der Forscher hat nicht immer die Möglichkeit, alle Phänomene zu studieren, obwohl dies ständig angestrebt werden sollte (es fehlt an Zeit, Geld, notwendigen Bedingungen usw.); Andererseits ist oft ein kontinuierliches Studium einfach nicht erforderlich, da die Schlussfolgerungen nach dem Studium eines bestimmten Teils der Primäreinheiten ausreichend genau sind.

Die theoretische Grundlage der selektiven Forschungsmethode ist die Wahrscheinlichkeitstheorie und das Gesetz der großen Zahl. Damit die Studie eine ausreichende Anzahl von Fakten und Beobachtungen enthält, wird eine Tabelle mit ausreichend großen Zahlen verwendet. In diesem Fall muss der Forscher die Größe der Wahrscheinlichkeit und die Größe des zulässigen Fehlers ermitteln. Angenommen, der zulässige Fehler in den Schlussfolgerungen, die aufgrund von Beobachtungen im Vergleich zu theoretischen Annahmen gezogen werden sollten, sollte 0,05 sowohl positiv als auch negativ nicht überschreiten (mit anderen Worten, wir können einen Fehler von nicht mehr als 5 machen Fälle von 100). Dann finden wir gemäß der Tabelle der ausreichend großen Zahlen (siehe Tabelle 6.7), dass die richtige Schlussfolgerung in 9 von 10 Fällen gezogen werden kann, wenn die Anzahl der Beobachtungen mindestens 270 beträgt, in 99 von 100 Fällen, wenn dies der Fall ist mindestens 663 Beobachtungen usw. e) Je größer also die Genauigkeit und Wahrscheinlichkeit, mit der wir Schlussfolgerungen ziehen sollen, desto größer wird die Zahl der erforderlichen Beobachtungen. In einer psychologischen und pädagogischen Studie sollte es jedoch nicht übermäßig groß sein. 300–500 Beobachtungen reichen oft völlig aus, um solide Schlussfolgerungen zu ziehen.

Diese Methode zur Bestimmung des Stichprobenumfangs ist die einfachste. Die mathematische Statistik verfügt auch über komplexere Methoden zur Berechnung der erforderlichen Stichprobenmengen, die in der Fachliteratur ausführlich behandelt werden.

Die Einhaltung der Anforderungen des Massencharakters gewährleistet jedoch noch nicht die Zuverlässigkeit der Schlussfolgerungen. Sie sind zuverlässig, wenn die für die Beobachtung gewählten Einheiten (Gespräche, Experimente usw.) für die Klasse der untersuchten Phänomene ausreichend repräsentativ sind.

Tabelle 6.7

Kurze Tabelle mit ausreichend großen Zahlen

Wert

Wahrscheinlichkeiten

Zulässig

Die Repräsentativität der Beobachtungseinheiten wird in erster Linie durch deren zufällige Auswahl anhand von Zufallszahlentabellen sichergestellt. Angenommen, aus den vorhandenen 200 sollen 20 Trainingsgruppen für die Durchführung eines Massenexperiments bestimmt werden. Dazu wird eine Liste aller Gruppen erstellt, die nummeriert wird. Dann werden aus der Tabelle der Zufallszahlen ausgehend von einer beliebigen Zahl in einem bestimmten Intervall 20 Zahlen gezogen. Diese 20 Zufallszahlen bestimmen durch Beobachtung der Zahlen die Gruppen, die der Forscher benötigt. Eine zufällige Auswahl von Objekten aus der allgemeinen (allgemeinen) Bevölkerung gibt Anlass zu der Annahme, dass die Ergebnisse, die bei der Untersuchung einer Stichprobenpopulation von Einheiten erzielt werden, nicht stark von denen abweichen werden, die bei einer Untersuchung der gesamten Bevölkerung von verfügbar wären Einheiten.

In der Praxis der psychologischen und pädagogischen Forschung werden nicht nur einfache Zufallsauswahlen verwendet, sondern auch komplexere Auswahlverfahren: geschichtete Zufallsauswahl, mehrstufige Auswahl usw.

Mathematische und statistische Forschungsmethoden sind auch Mittel, um neues Faktenmaterial zu gewinnen. Dazu werden Template-Techniken verwendet, die die Aussagekraft der Fragebogenfrage und Skalierung erhöhen, wodurch das Handeln sowohl des Forschers als auch der Probanden genauer eingeschätzt werden kann.

Die Skalen entstanden aus der Notwendigkeit, die Intensität bestimmter psychologischer und pädagogischer Phänomene objektiv und genau zu diagnostizieren und zu messen. Die Skalierung ermöglicht es, die Phänomene zu rationalisieren, jedes von ihnen zu quantifizieren und die niedrigsten und höchsten Ebenen des untersuchten Phänomens zu bestimmen.

Wenn man also die kognitiven Interessen der Zuhörer untersucht, kann man ihre Grenzen setzen: sehr großes Interesse – sehr schwaches Interesse. Führen Sie zwischen diesen Grenzen eine Reihe von Schritten ein, die eine Skala kognitiver Interessen erstellen: sehr großes Interesse (1); großes Interesse (2); mittel (3); schwach (4); sehr schwach (5).

In der psychologischen und pädagogischen Forschung werden verschiedene Arten von Skalen verwendet, zum Beispiel

a) Dreidimensionale Skala

Sehr aktiv……..…………..10

Aktiv ……………………………5

Passiv………………………...0

b) Mehrdimensionale Skala

Sehr aktiv…………………..8

Mittel aktiv………………….6

Nicht zu aktiv…………...4

Passiv………………………..2

Völlig passiv…………...0

c) Bilaterale Skala.

Sehr interessiert……………..10

Interessiert genug………...5

Gleichgültig ……………………….0

Nicht interessiert…………………..5

Absolut kein Interesse………10

Numerische Bewertungsskalen geben jedem Item eine spezifische numerische Bezeichnung. Bei der Analyse der Einstellung der Studierenden zum Studium, ihrer Arbeitsausdauer, Kooperationsbereitschaft etc. Sie können eine numerische Skala anhand der folgenden Indikatoren erstellen: 1 - unbefriedigend; 2 - schwach; 3 - mittel; 4 ist überdurchschnittlich, 5 ist weit überdurchschnittlich. In diesem Fall sieht die Skala wie folgt aus (siehe Tabelle 6.8):

Tabelle 6.8

Wenn die numerische Skala bipolar ist, wird die bipolare Ordnung mit dem Nullwert in der Mitte verwendet:

Disziplinlosigkeit

Ausgesprochen 5 4 3 2 1 0 1 2 3 4 5 Nicht ausgesprochen

Bewertungsskalen können grafisch dargestellt werden. In diesem Fall drücken sie Kategorien in visueller Form aus. Darüber hinaus wird jede Unterteilung (Stufe) der Skala verbal charakterisiert.

Die betrachteten Methoden spielen eine wichtige Rolle bei der Analyse und Verallgemeinerung der gewonnenen Daten. Sie ermöglichen es, verschiedene Beziehungen, Korrelationen zwischen Tatsachen herzustellen und Trends in der Entwicklung psychologischer und pädagogischer Phänomene zu erkennen. So hilft die Gruppierungstheorie der mathematischen Statistik zu bestimmen, welche Fakten aus dem gesammelten empirischen Material vergleichbar sind, auf welcher Grundlage sie richtig gruppiert werden sollten und welchen Grad an Zuverlässigkeit sie haben werden. All dies ermöglicht es, willkürliche Manipulationen mit Fakten zu vermeiden und das Programm für ihre Verarbeitung zu bestimmen. Abhängig von den Zielen und Zielsetzungen werden normalerweise drei Arten von Gruppierungen verwendet: typologische, Variations- und analytische Gruppierungen.

Typologische Gruppierung wird verwendet, wenn es notwendig ist, das erhaltene Faktenmaterial in qualitativ homogene Einheiten zu zerlegen (Verteilung der Anzahl von Disziplinverstößen auf verschiedene Kategorien von Studenten, Aufschlüsselung ihrer Leistungsindikatoren für körperliche Übungen nach Studienjahren usw.).

Gruppieren Sie das Material bei Bedarf nach dem Wert eines sich ändernden (variablen) Attributs - eine Aufschlüsselung der Schülergruppen nach Leistungsniveau, nach Prozentsatz der Aufgabenerfüllung, ähnlichen Verstößen gegen die festgelegte Reihenfolge usw. - angewandt Variationsgruppierung, was es ermöglicht, die Struktur des untersuchten Phänomens konsistent zu beurteilen.

Analytische Ansicht der Gruppierung hilft, die Beziehung zwischen den untersuchten Phänomenen (Abhängigkeit des Vorbereitungsgrades der Schüler von verschiedenen Lehrmethoden, der Qualität der Aufgaben, die auf Temperament, Fähigkeiten usw. ausgeführt werden), ihrer gegenseitigen Abhängigkeit und gegenseitigen Abhängigkeit bei der genauen Berechnung herzustellen.

Wie wichtig die Arbeit des Forschers bei der Gruppierung der gesammelten Daten ist, zeigt die Tatsache, dass Fehler in dieser Arbeit die umfassendsten und aussagekräftigsten Informationen entwerten.

Gegenwärtig haben die mathematischen Grundlagen der Gruppierung, Typologie und Klassifikation die tiefgreifendste Entwicklung in der Soziologie erfahren. Moderne Ansätze und Methoden der Typologie und Klassifikation in der soziologischen Forschung können erfolgreich in Psychologie und Pädagogik angewendet werden.

Im Laufe der Studie werden Methoden zur endgültigen Verallgemeinerung von Daten verwendet. Eine davon ist die Technik des Zusammenstellens und Studierens von Tabellen.

Bei der Zusammenfassung von Daten zu einem statistischen Wert wird eine Verteilungsreihe (Variationsreihe) des Wertes dieses Wertes gebildet. Ein Beispiel für eine solche Reihe (siehe Tabelle 6.9) ist eine Zusammenfassung von Daten zum Brustumfang von 500 Gesichtern.

Tabelle 6.9

Eine Zusammenfassung von Daten gleichzeitig für zwei oder mehr statistische Werte beinhaltet die Erstellung einer Verteilungstabelle, die die Verteilung der Werte eines statischen Werts in Übereinstimmung mit den Werten anderer Werte aufzeigt.

Zur Veranschaulichung sei Tabelle 6.10 angeführt, die anhand statistischer Daten zum Brustumfang und zum Gewicht dieser Personen zusammengestellt wurde.

Tabelle 6.10

Brustumfang cm

Die Verteilungstabelle lässt erahnen, welche Beziehung und Verbindung zwischen den beiden Werten besteht, nämlich: Bei einem kleinen Gewicht liegen die Häufigkeiten im oberen linken Viertel der Tabelle, was auf das Überwiegen von Personen mit kleiner Brust hindeutet Umfang. Wenn das Gewicht in Richtung Mittelwert zunimmt, verschiebt sich die Häufigkeitsverteilung in die Mitte der Platte. Dies weist darauf hin, dass Menschen, die näher am Durchschnittsgewicht liegen, einen Brustumfang haben, der ebenfalls nahe am Durchschnitt liegt. Mit einer weiteren Erhöhung des Gewichts beginnen die Frequenzen, das untere rechte Viertel der Platte einzunehmen. Dies weist darauf hin, dass bei einer überdurchschnittlich schweren Person auch der Brustumfang über dem durchschnittlichen Volumen liegt.

Aus der Tabelle folgt, dass die festgestellte Beziehung nicht streng (funktional), sondern probabilistisch ist, wenn sich bei Änderungen der Werte einer Größe die andere als Trend ohne starre eindeutige Abhängigkeit ändert. Solche Zusammenhänge und Abhängigkeiten finden sich häufig in Psychologie und Pädagogik. Derzeit werden sie normalerweise durch Korrelations- und Regressionsanalyse ausgedrückt.

Variationsreihen und -tabellen geben eine Vorstellung von der Statik des Phänomens, während die Dynamik durch Entwicklungsreihen dargestellt werden kann, wobei die erste Zeile aufeinanderfolgende Stadien oder Zeitintervalle enthält und die zweite - die Werte der untersuchten Statistik Wert, der in diesen Phasen erzielt wird. So werden eine Zunahme, Abnahme oder periodische Veränderungen des untersuchten Phänomens aufgedeckt, seine Tendenzen und Muster werden aufgedeckt.

Tabellen können mit absoluten Werten oder zusammenfassenden Zahlen (Durchschnitt, relativ) gefüllt werden. Die Ergebnisse der statistischen Arbeit - neben Tabellen werden sie häufig grafisch in Form von Diagrammen, Abbildungen usw. dargestellt. Die wichtigsten Arten der grafischen Darstellung statistischer Größen sind: die Methode der Punkte, die Methode der geraden Linien und die Methode von Rechtecken. Sie sind einfach und für jeden Forscher zugänglich. Die Technik ihrer Verwendung besteht darin, Koordinatenachsen zu zeichnen, den Maßstab festzulegen und die Bezeichnung von Segmenten (Punkten) auf der horizontalen und vertikalen Achse auszugeben.

Diagramme, die die Verteilungsreihen der Werte einer statistischen Größe darstellen, ermöglichen die Erstellung von Verteilungskurven.

Eine grafische Darstellung zweier (oder mehrerer) statistischer Größen ermöglicht es, eine bestimmte gekrümmte Fläche, die so genannte Verteilungsfläche, zu bilden. Eine Reihe von Entwicklungen in der grafischen Ausführung bilden Entwicklungskurven.

Die grafische Darstellung von statistischem Material ermöglicht es, tiefer in die Bedeutung digitaler Werte einzudringen, ihre Abhängigkeiten und Merkmale des untersuchten Phänomens zu erfassen, die in der Tabelle schwer zu erkennen sind. Der Forscher wird von der Arbeit befreit, die er leisten müsste, um mit der Fülle der Zahlen fertig zu werden.

Tabellen und Grafiken sind wichtig, aber nur die ersten Schritte beim Studium statistischer Größen. Die Hauptmethode ist analytisch und arbeitet mit mathematischen Formeln, mit deren Hilfe die sogenannten „verallgemeinernden Indikatoren“ abgeleitet werden, dh absolute Werte, die in vergleichbarer Form (Relativ- und Durchschnittswerte, Salden und Indizes). Mit Hilfe von relativen Werten (Prozentwerten) werden also die qualitativen Merkmale der analysierten Grundgesamtheiten bestimmt (z. B. das Verhältnis exzellenter Studenten zur Gesamtzahl der Studenten; die Anzahl der Fehler, die bei der Arbeit an komplexen Geräten verursacht wurden B. durch die geistige Instabilität der Schüler, zur Gesamtzahl der Fehler usw.). Das heißt, die Beziehungen werden offenbart: Teile zum Ganzen (spezifisches Gewicht), Terme zur Summe (Mengenstruktur), ein Teil der Menge zu seinem anderen Teil; Charakterisierung der Dynamik von Änderungen im Laufe der Zeit usw.

Wie man sieht, legt schon die allgemeinste Vorstellung von den Methoden der statistischen Berechnung nahe, dass diese Methoden ein großes Potenzial bei der Analyse und Verarbeitung von empirischem Material haben. Natürlich kann der mathematische Apparat alles leidenschaftslos verarbeiten, was der Forscher hineingibt, sowohl verlässliche Daten als auch subjektive Vermutungen. Deshalb ist für jeden Forscher die perfekte Beherrschung des mathematischen Apparats zur Verarbeitung des gesammelten empirischen Materials in Einheit mit einer gründlichen Kenntnis der qualitativen Eigenschaften des untersuchten Phänomens erforderlich. Nur so ist es möglich, qualitativ hochwertiges, objektives Faktenmaterial auszuwählen, qualifiziert aufzubereiten und belastbare Enddaten zu erhalten.

Dies ist eine kurze Beschreibung der am häufigsten verwendeten Methoden zum Studium der Probleme der Psychologie und Pädagogik. Es ist zu betonen, dass keine der betrachteten Methoden für sich genommen den Anspruch erheben kann, universell zu sein, um die Objektivität der erhaltenen Daten vollständig zu gewährleisten. Somit sind die subjektivistischen Elemente in den Antworten der Befragten offensichtlich. Beobachtungsergebnisse sind in der Regel nicht frei von subjektiven Einschätzungen des Forschers selbst. Daten, die aus verschiedenen Dokumenten entnommen wurden, erfordern eine gleichzeitige Überprüfung der Echtheit dieser Dokumente (insbesondere persönliche Dokumente, Dokumente aus zweiter Hand usw.).

Daher sollte jeder Forscher einerseits danach streben, die Technik der Anwendung einer bestimmten Methode zu verbessern, und andererseits die komplexe, sich gegenseitig kontrollierende Verwendung verschiedener Methoden zur Untersuchung desselben Problems. Der Besitz des gesamten Methodensystems ermöglicht es, eine rationale Forschungsmethodik zu entwickeln, diese klar zu organisieren und durchzuführen und bedeutende theoretische und praktische Ergebnisse zu erzielen.

    Verweise.

    Shevandrin N.I. Sozialpsychologie in der Pädagogik: Lehrbuch. Teil 1. Konzeptionelle und angewandte Grundlagen der Sozialpsychologie. – M.: VLADOS, 1995.

2. Davydov V.P. Grundlagen der Methodik, Methodologie und Technologie der pädagogischen Forschung: Wissenschaftliches und methodologisches Handbuch. - M.: Akademie des FSB, 1997.

  • 7. Grundlegende Hardwarekonfiguration eines Personalcomputers. Systemblock: Konzepte, Typen. Die interne Struktur der Systemeinheit.
  • 8. Computerplatine: Konzept, Zweck, Beschreibung, Logikschaltungen.
  • 9. Struktur und Hauptmerkmale des Prozessors als Hauptmikroschaltung des Computers Kommunikation des Prozessors mit anderen Geräten. Komponenten der Autobahn comp-ra.
  • 10. Interner Computerspeicher: RAM- und Cache-Speicher, ROM-Chip und BIOS-System, nichtflüchtiger CMOS-Speicher. Medien und externe Speichergeräte.
  • 11. Design, Funktionsprinzip, grundlegende Parameter der Festplatte.
  • 1. Datenübertragungsprotokoll.
  • 12. Klassifizierung von Informationseingabe- und -ausgabegeräten, Comp-Ra-Ports zum Anschließen von Peripheriegeräten.
  • 13. Arten und Hauptbenutzermerkmale moderner Monitore.
  • 14. Drucker: Konzept, Zweck, Typen, Arbeitsprinzipien.
  • 15. Tastatur: Tastengruppen, Tastenbelegung.
  • 16. Typen, Funktionsprinzip, einstellbare Mausparameter. Hinzufügen. Computergeräte: Modem, TV-Tuner, Soundkarte.
  • 17. Das Konzept und die Struktur von Personal Computer Software.
  • 18. Zweck, Typen, führende Funktionen des PC-Betriebssystems. Die Hauptkomponenten des Betriebssystems: Kernel, Schnittstelle, Gerätetreiber.
  • 19. Das Konzept und die Arten von Dateien. Die Dateistruktur der Datei comp-ra. Pflegen der Dateistruktur eines Personal Computers.
  • 20. Angewandt: Konzept, Bedeutung, Struktur, Typen, Programme.
  • 21. Zweck und Arten von Programmiersprachen. Zusammengesetzte Komponenten des Programmiersystems.
  • 22. Ernennung und Klassifizierung von Servicesoftware.
  • 23. Computervirus. Anzeichen einer Virusinfektion.
  • 24. Klassifizierung von Viren.
  • 25. Arten von Antivirenprogrammen. Maßnahmen zum Schutz von Computern vor Viren.
  • 26. Das Konzept der Archivierung. Methoden und Formate der Informationskomprimierung. Grundideen von rle-, Lempel-Ziv-, Huffman-Algorithmen.
  • 27. Datenbank. Einstufung. Datenbankmodelle. Vorteile und Nachteile.
  • 28. Subst. Arten. Grundprinzipien der Schöpfung.
  • 29. Automatisierter Arbeitsplatz eines Facharztes. Zweck, Grundvoraussetzungen und Entwicklungsprinzipien.
  • 30. Die mit Hilfe des Arms gelösten Aufgaben und die Hauptanweisungen für die Verwendung automatisierter Arbeitsplätze durch medizinisches Personal.
  • 31. Strukturkomponenten und Funktionsmodule von automatisierten Arbeitsplätzen für medizinisches Personal. Klassifizierung von automatisierten Arbeitsplätzen für Mitarbeiter medizinischer Organisationen.
  • 32. Wissen als Grundlage für das Funktionieren von Expertensystemen. Begriff, Eigenschaften und Wissensarten.
  • 33. Expertensystem: Konzept, Zweck und Strukturkomponenten. Hauptstadien der Entwicklung eines Expertensystems
  • 34. Grundlegende Funktionen von Expertensystemen und Anforderungen an die Arbeit medizinischer Expertensysteme.
  • 35. Betriebsarten und Typen moderner Expertensysteme. Expertensystem und Spezialist: Komparative Vor- und Nachteile
  • 36. Das Konzept eines Computernetzwerks. Grundvoraussetzungen für moderne Computernetzwerke
  • 37. Die Hauptkomponenten eines Computernetzwerks
  • 38. Klassifizierung von Computernetzwerken. Topologie k. Arten. Vorteile und Nachteile.
  • 39. Globales Internet. Geschichte der Schöpfung. Allgemeine Merkmale des Internets. Das Prinzip der Paketvermittlung
  • 40. Internetprotokoll. Netzwerkfähigkeiten. "Das Internet". HTML-Sprache.
  • 41. Telemedizin, Aufgaben der Telemedizin. Die Entwicklungsgeschichte. Hauptrichtungen der Telemedizin
  • 42. Gegenstand, Aufgaben und Ziele der Medizinischen Informatik. Arten von medizinischen Informationen
  • 43. Klassifikation medizinischer Informationssysteme (MIS). MIS-Aufgaben
  • 44. Informationstechnologie. Informationssysteme
  • 45. Arten von medizinischen Informationssystemen. MIS-Entwicklungsstufen
  • 46. ​​Geschichte der Computerentwicklung. Computergenerationen. Der aktuelle Stand in der Entwicklung der Computertechnologie und ihre Perspektiven
  • 47. Mathematische Statistik und ihre Methoden. Die Hauptphasen der statistischen Arbeit.
  • 48. Allgemeine Bevölkerung und Stichprobe. Stichprobenverfahren
  • 49. Variationsreihe und ihre visuelle Darstellung. Erstellen eines Histogramms (Algorithmus)
  • 50. Merkmale der statistischen Verteilung: Merkmale der Position; Formmerkmale; Streueigenschaften.
  • 51. Schätzung der Parameter der Allgemeinbevölkerung. Punkt- und Intervallschätzung. Konfidenzintervall. Signifikanzniveau
  • 52. Dispersionsanalyse. Abstufungen von Faktoren und Analyse. Das einfachste Variationsschema für Unterschiede in einem Faktor
  • 53. Dispersionsanalyse. Arbeitsformel zur Berechnung der mittleren Quadrate
  • 54. Berechnung des f-Kriteriums zur Bestimmung des Einflusses des untersuchten Faktors. Quantitative Bewertung des Einflusses einzelner Faktoren.
  • 55. Das Konzept der Korrelation. Funktionale und Korrelationsabhängigkeiten. Streudiagramme.
  • 56. Korrelationskoeffizient und seine Eigenschaften.
  • 57. Regressionsanalyse. Lineare Regression
  • 58. Reihe von Dynamiken. Das Konzept einer Zeitreihe. Zeilentypen. Trenderkennung
  • 59. Dynamische Reihenausrichtung: Methode des gleitenden Durchschnitts
  • 60. Zeitreihenausgleich: Kleinste Quadrate
  • 61. Angleichung von Zeitreihen: Methode der Periodenverlängerung
  • 62. Analyse von Zeitreihen. Chronologischer Durchschnitt. Das absolute Wachstum der Serie. Wachstumsfaktor
  • 63. Analyse von Zeitreihen. Chronologischer Durchschnitt. Wachstumsrate. Zunahme
  • 47. Mathematische Statistik und ihre Methoden. Die Hauptphasen der statistischen Arbeit.

    Die mathematische Statistik ist eine wissenschaftliche Disziplin, deren Gegenstand die Entwicklung von Methoden zur Erfassung, Beschreibung und Analyse statistischer Versuchsdaten ist, die durch Beobachtungen massiver Zufallsphänomene gewonnen werden.

    Die Hauptaufgaben der mathematischen Statistik sind:

      Bestimmung des Verteilungsgesetzes einer Zufallsvariablen oder eines Systems von Zufallsvariablen;

      Prüfung der Plausibilität von Hypothesen;

      Bestimmung unbekannter Verteilungsparameter.

    Alle Methoden der mathematischen Statistik basieren auf der Wahrscheinlichkeitstheorie. Aufgrund der Spezifität der zu lösenden Probleme wird die mathematische Statistik jedoch von der Wahrscheinlichkeitstheorie in ein eigenständiges Gebiet getrennt. Wenn in der Wahrscheinlichkeitstheorie das Modell des Phänomens als gegeben angesehen und der mögliche reale Verlauf dieses Phänomens berechnet wird (Abb. 1), dann wird in der mathematischen Statistik auf der Grundlage statistischer Daten ein geeignetes theoretisches und probabilistisches Modell ausgewählt (Abb 2).

    Abb.1. Allgemeines Problem der Wahrscheinlichkeitstheorie

    Abb.2. Allgemeines Problem der mathematischen Statistik

    Als wissenschaftliche Disziplin entwickelte sich die mathematische Statistik zusammen mit der Wahrscheinlichkeitstheorie. Der mathematische Apparat dieser Wissenschaft wurde in der zweiten Hälfte des 19. Jahrhunderts aufgebaut.

    Die Hauptphasen der statistischen Arbeit.

    Jede statistische Forschung umfasst 3 Hauptphasen:

      Sammlung ist eine wissenschaftlich organisierte Massenbeobachtung, durch die Primärinformationen über einzelne Fakten (Einheiten) des untersuchten Phänomens gewonnen werden. Diese statistische Erfassung einer großen Anzahl oder aller Einheiten, aus denen das untersuchte Phänomen besteht, ist die Informationsbasis für statistische Verallgemeinerungen, um Rückschlüsse auf das untersuchte Phänomen oder den untersuchten Prozess zu ziehen;

      Gruppierung und Zusammenfassung. Unter diesen Daten versteht man die Aufteilung einer Menge von Fakten (Einheiten) in homogene Gruppen und Untergruppen, die Endauszählung für jede Gruppe und Untergruppe und die Darstellung der Ergebnisse in Form einer statistischen Tabelle;

      Verarbeitung und Analyse. Die statistische Analyse schließt die Phase der statistischen Forschung ab. Es umfasst die Verarbeitung statistischer Daten, die während der Zusammenfassung erhalten wurden, die Interpretation der erhaltenen Ergebnisse, um objektive Schlussfolgerungen über den Zustand des untersuchten Phänomens und über die Muster seiner Entwicklung zu erhalten.

    48. Allgemeine Bevölkerung und Stichprobe. Stichprobenverfahren

    Die allgemeine Bevölkerung (auf Englisch - Bevölkerung) ist die Gesamtheit aller Objekte (Einheiten), auf die der Wissenschaftler bei der Untersuchung eines bestimmten Problems Rückschlüsse ziehen möchte.

    Die Grundgesamtheit besteht aus allen untersuchten Objekten. Die Zusammensetzung der Allgemeinbevölkerung hängt von den Zielen der Studie ab. Manchmal ist die allgemeine Bevölkerung die gesamte Bevölkerung einer bestimmten Region (z. B. wenn die Einstellung potenzieller Wähler zu einem Kandidaten untersucht wird), meistens werden mehrere Kriterien festgelegt, die den Untersuchungsgegenstand bestimmen. Zum Beispiel Männer im Alter von 30 bis 50 Jahren, die mindestens einmal pro Woche einen Rasierer einer bestimmten Marke verwenden und ein Einkommen von mindestens 100 US-Dollar pro Familienmitglied haben.

    Stichprobe oder Stichprobensatz - eine Reihe von Fällen (Subjekte, Objekte, Ereignisse, Stichproben), die nach einem bestimmten Verfahren aus der allgemeinen Bevölkerung für die Teilnahme an der Studie ausgewählt werden.

    Beispieleigenschaften:

      Qualitative Merkmale der Probe – wen genau wählen wir aus und welche Methoden der Probenahme verwenden wir dafür

      Das quantitative Merkmal der Stichprobe ist, wie viele Fälle wir auswählen, also die Stichprobengröße.

    Probenahme erforderlich

      Der Studiengegenstand ist sehr breit gefächert. Zum Beispiel sind die Verbraucher der Produkte eines globalen Unternehmens eine große Anzahl geografisch verteilter Märkte.

      Es besteht die Notwendigkeit, Primärinformationen zu sammeln.

    Stichprobengröße

    Stichprobengröße – die Anzahl der in der Stichprobe enthaltenen Fälle. Aus statistischen Gründen wird eine Fallzahl von mindestens 30-35 empfohlen.

    Grundlegende Stichprobenverfahren

    Die Stichprobenziehung basiert in erster Linie auf der Kenntnis des Stichprobenplans, der als Liste aller Bevölkerungseinheiten verstanden wird, aus denen Stichprobeneinheiten ausgewählt werden. Wenn wir beispielsweise alle Autowerkstätten in der Stadt Moskau als einen Satz betrachten, benötigen wir eine Liste solcher Werkstätten, die als Kontur betrachtet wird, innerhalb derer die Stichprobe gebildet wird.

    Die Stichprobenkontur enthält unvermeidlich einen Fehler, der als Stichprobenkonturfehler bezeichnet wird und den Grad der Abweichung von der wahren Größe der Population charakterisiert. Offensichtlich gibt es keine vollständige offizielle Liste aller Autowerkstätten in Moskau. Der Forscher muss den Auftraggeber der Arbeit über die Größe des Stichprobenkonturfehlers informieren.

    Bei der Bildung einer Stichprobe werden probabilistische (zufällige) und unwahrscheinliche (nicht zufällige) Methoden verwendet.

    Wenn alle Stichprobeneinheiten eine bekannte Chance (Wahrscheinlichkeit) haben, in die Stichprobe aufgenommen zu werden, wird die Stichprobe als Wahrscheinlichkeitsstichprobe bezeichnet. Wenn diese Wahrscheinlichkeit unbekannt ist, wird die Stichprobe als unwahrscheinlich bezeichnet. Leider ist es in den meisten Marketingstudien aufgrund der Unmöglichkeit, die Größe der Population genau zu bestimmen, nicht möglich, Wahrscheinlichkeiten genau zu berechnen. Daher basiert der Begriff „bekannte Wahrscheinlichkeit“ eher auf der Verwendung bestimmter Stichprobenverfahren als auf der Kenntnis der genauen Größe der Population.

    Probabilistische Methoden umfassen:

      einfache Zufallsauswahl;

      systematische Auswahl;

      Clusterauswahl;

      geschichtete Auswahl.

    Unglaubliche Methoden:

      Auswahl nach dem Convenience-Prinzip;

      Auswahl auf der Grundlage von Urteilen;

      Probenahme während der Erhebung;

      Bemusterung nach Quoten.

    Die Bedeutung des auf dem Convenience-Prinzip basierenden Auswahlverfahrens besteht darin, dass die Probenahme auf die aus Sicht des Forschers bequemste Weise durchgeführt wird, beispielsweise aus Sicht des minimalen Zeit- und Arbeitsaufwands, aus Sicht der Verfügbarkeit von Befragte. Die Auswahl des Studienortes und die Zusammensetzung der Stichprobe erfolgt subjektiv, beispielsweise wird eine Kundenbefragung in einem Geschäft durchgeführt, das dem Wohnort des Forschers am nächsten liegt. Offensichtlich nehmen viele Mitglieder der Bevölkerung nicht an der Umfrage teil.

    Die Bildung einer Stichprobe auf der Grundlage von Urteilen basiert auf der Verwendung der Meinung qualifizierter Spezialisten, Experten in Bezug auf die Zusammensetzung der Stichprobe. Basierend auf diesem Ansatz wird häufig die Zusammensetzung der Fokusgruppe gebildet.

    Die Bildung der Stichprobe während der Befragung basiert auf der Erweiterung des Kreises der Befragten auf Basis der Vorschläge von Befragten, die bereits an der Befragung teilgenommen haben. Zunächst bildet der Forscher eine Stichprobe, die viel kleiner ist als für die Studie erforderlich, und erweitert sich dann, während sie durchgeführt wird.

    Bei der Bildung einer Quotenstichprobe (Quotenauswahl) wird ausgehend von der Zielsetzung der Studie vorab festgelegt, wie viele Gruppen von Befragten bestimmte Anforderungen (Merkmale) erfüllen. Beispielsweise wurde für die Zwecke der Studie entschieden, dass fünfzig Männer und fünfzig Frauen in einem Kaufhaus befragt werden sollten. Der Interviewer führt eine Umfrage durch, bis er eine festgelegte Quote auswählt.

    Betrachten Sie einige Konzepte und Hauptansätze zu Einstufung Fehler. Je nach Berechnungsmethode können Fehler in absolute und relative Fehler eingeteilt werden.

    Absoluter Fehler ist gleich der Differenz der durchschnittlichen Messung der Größe x und der wahre Wert dieser Größe:

    Berechnen Sie ggf. in manchen Fällen die Fehler einzelner Bestimmungen:

    Beachten Sie, dass der Messwert in der chemischen Analyse sowohl der Inhalt der Komponente als auch das analytische Signal sein kann. Je nachdem, ob das Ergebnis der Analyse den Fehler über- oder unterschätzt, können die Fehler sein positiv und Negativ.

    Relativer Fehler kann in Brüchen oder Prozent ausgedrückt werden und hat normalerweise kein Vorzeichen:

    oder

    Es ist möglich, Fehler nach ihrer Entstehungsquelle zu klassifizieren. Da es extrem viele Fehlerquellen gibt, kann deren Zuordnung nicht eindeutig sein.

    Meistens werden Fehler nach der Art der Ursachen klassifiziert, die sie verursachen. In diesem Fall werden die Fehler durch dividiert systematischHimmel und lässig, Fehler (oder grobe Fehler) werden ebenfalls unterschieden.

    ZU systematisch Fehler enthalten, die durch eine dauerhafte Ursache verursacht werden, bei allen Messungen konstant sind oder sich nach einem dauerhaften Gesetz ändern, identifiziert und beseitigt werden können.

    Zufällig Fehler, deren Ursachen unbekannt sind, können mit Methoden der mathematischen Statistik abgeschätzt werden.

    Fräulein - Dies ist ein Fehler, der das Ergebnis der Analyse stark verzerrt und normalerweise leicht zu erkennen ist und in der Regel durch Nachlässigkeit oder Inkompetenz des Analytikers verursacht wird. Auf Abb. 1.1 ist ein Diagramm, das die Konzepte von systematisch und Fehler und Misses erklärt. Gerade 1 entspricht dem Idealfall, wenn es in allen N Definitionen keine systematischen und zufälligen Fehler gibt. Die Zeilen 2 und 3 sind ebenfalls idealisierte Beispiele für chemische Analysen. In einem Fall (Gerade 2) fehlen zufällige Fehler vollständig, aber alle n Definitionen haben einen konstanten negativen systematischen Fehler Δх; ansonsten (Zeile 3) kein systematischer Fehler. Die Linie spiegelt die reale Situation wider 4: Es gibt sowohl zufällige als auch systematische Fehler.

    Reis. 4.2.1 Systematische und zufällige Fehler der chemischen Analyse.

    Die Einteilung der Fehler in systematische und zufällige Fehler ist gewissermaßen bedingt.

    Die systematischen Fehler einer Ergebnisstichprobe können bei Betrachtung einer größeren Anzahl von Daten zu zufälligen Fehlern werden. Beispielsweise wird ein systematischer Fehler aufgrund falscher Instrumentenablesungen beim Messen eines analytischen Signals auf verschiedenen Instrumenten in verschiedenen Labors zufällig.

    Reproduzierbarkeit charakterisiert den Grad der Nähe einzelner Definitionen zueinander, die Streuung einzelner Ergebnisse relativ zum Durchschnitt (Abb. 1.2).

    Reis. 4.2..2. Reproduzierbarkeit und Genauigkeit der chemischen Analyse

    In manchen Fällen zusammen mit dem Begriff "Reproduzierbarkeit" den Begriff verwenden "Konvergenz". Dabei wird unter Konvergenz die Streuung der Ergebnisse paralleler Bestimmungen verstanden und unter Reproduzierbarkeit die Streuung der Ergebnisse, die mit unterschiedlichen Methoden, in unterschiedlichen Labors, zu unterschiedlichen Zeiten etc.

    Richtig ist die Qualität der chemischen Analyse, die die Nähe des systematischen Fehlers zu Null widerspiegelt. Korrektheit kennzeichnet die Abweichung des erhaltenen Analyseergebnisses vom wahren Wert des Messwertes (siehe Abb. 1.2).

    Bevölkerung - eine hypothetische Menge aller denkbaren Ergebnisse von -∞ bis +∞;

    Eine Analyse der experimentellen Daten zeigt, dass große Fehler beobachtet werden weniger oft als kleine. Es wird auch darauf hingewiesen, dass mit zunehmender Anzahl von Beobachtungen dieselben Fehler mit unterschiedlichen Vorzeichen auftreten. gleichermaßen oft. Diese und andere Eigenschaften zufälliger Fehler werden durch eine Normalverteilung oder beschrieben Gauß-Gleichung, was die Wahrscheinlichkeitsdichte beschreibt
    .

    wo x- der Wert einer Zufallsvariablen;

    μ – allgemeiner Durchschnitt (erwarteter Wert- konstanter Parameter);

    Erwarteter Wert- für eine kontinuierliche Zufallsvariable ist die Grenze, zu der der Durchschnitt tendiert mit einer unbegrenzten Erhöhung der Stichprobe. Somit ist die mathematische Erwartung der Durchschnittswert für die gesamte Bevölkerung als Ganzes, manchmal wird sie auch genannt allgemeiner Durchschnitt.

    σ 2 -Dispersion (konstanter Parameter) - charakterisiert die Streuung einer Zufallsvariablen relativ zu ihrer mathematischen Erwartung;

    σ ist die Standardabweichung.

    Streuung- charakterisiert die Streuung einer Zufallsvariablen bezüglich ihrer mathematischen Erwartung.

    Stichprobenpopulation (Probe)- die tatsächliche Anzahl (n) der Ergebnisse, die der Forscher hat, n = 3 ÷ 10.

    Normalverteilungsgesetz inakzeptabel um eine kleine Anzahl von Änderungen in der Stichprobenpopulation (normalerweise 3-10) zu bewältigen - selbst wenn die Population als Ganzes normalverteilt ist. Verwenden Sie für kleine Stichproben anstelle einer Normalverteilung Studentenverteilung (T- Verteilung), das die drei Hauptmerkmale der Stichprobenpopulation miteinander verbindet -

    Die Breite des Konfidenzintervalls;

    Die entsprechende Wahrscheinlichkeit;

    Stichprobengröße.

    Vor der Verarbeitung von Daten mit Methoden der mathematischen Statistik ist eine Identifizierung erforderlich vermisst(grobe Fehler) und schließen sie aus den betrachteten Ergebnissen aus. Eines der einfachsten ist das Verfahren zum Erkennen von Fehlern unter Verwendung von Q - einem Kriterium mit der Anzahl von Messungen n< 10:

    wo R = x max - X Mindest– Variationsbreite; x 1 - ein verdächtig herausragender Wert; x 2 - das Ergebnis einer einzelnen Bestimmung, dem Wert am nächsten x 1 .

    Der erhaltene Wert wird mit dem kritischen Wert Q crit auf einem Vertrauensniveau P = 0,95 verglichen. Wenn Q > Q crit, ist das Drop-Ergebnis ein Fehlschlag und wird verworfen.

    Hauptmerkmale der Probe. Zur Bemusterung von n Ergebnisse berechnet werden der Durchschnitt,:

    und Streuung, der die Streuung der Ergebnisse relativ zum Mittelwert charakterisiert:

    Streuung in expliziter Form kann nicht verwendet werden, um die Streuung von Ergebnissen zu quantifizieren, da ihre Dimension nicht mit der Dimension des Analyseergebnisses übereinstimmt. Verwenden Sie zur Charakterisierung der Streuung Standardabweichung,S.

    Dieser Wert wird auch als Standardabweichung (oder Standardabweichung) oder Standardfehler eines einzelnen Ergebnisses bezeichnet.

    Örelative Standardabweichung oder der Variationskoeffizient (V) wird aus der Beziehung berechnet

    Die Varianz des arithmetischen Mittels Berechnung:

    und Standardabweichung des Mittelwerts

    Zu beachten ist, dass alle Werte – Varianz, Standardabweichung und relative Standardabweichung, sowie die Varianz des arithmetischen Mittels und die Standardabweichung des arithmetischen Mittels – die Reproduzierbarkeit der Ergebnisse der chemischen Analyse charakterisieren.

    Verwendet bei der Verarbeitung von kleinen (n<20) выборок из нормально распределенной генеральной совокупности t – распределение (т.е. распределение нормированной случайной величины) характеризуется соотношением

    woT P , F Studentische Verteilung mit der Anzahl der Freiheitsgrade F= n-1 und Konfidenzniveau P = 0,95(oder Signifikanzniveau p=0,05).

    Die Werte der t-Verteilungen sind in den Tabellen angegeben, sie werden für eine Stichprobe in berechnet n Ergebnisse, der Wert des Konfidenzintervalls der gemessenen Größe für eine gegebene Konfidenzwahrscheinlichkeit gemäß der Formel

    Konfidenzintervall charakterisiert sowohl die Reproduzierbarkeit der Ergebnisse chemischer Analysen als auch - wenn der wahre Wert von x ist bekannt ist - deren Richtigkeit.

    Ein Beispiel für die Durchführung der Kontrollarbeit Nr. 2

    Übung

    Beim ein Luftanalyse auf Stickstoffgehalt durch chromatographisches Verfahren für zwei Versuchsreihen wurden die folgenden Ergebnisse erhalten:

    Lösung:

    Wir überprüfen die Reihe auf das Vorhandensein von groben Fehlern durch das Q-Kriterium. Warum wir die Ergebnisse in absteigender Reihenfolge anordnen (vom Minimum zum Maximum oder umgekehrt):

    Erste Episode:

    77,90<77,92<77,95<77,99<78,05<78,07<78,08<78,10

    Wir prüfen die Extremergebnisse der Reihe (ob sie einen groben Fehler enthalten).

    Der erhaltene Wert wird mit dem Tabellenwert (Tabelle 2 der Anmeldung) verglichen. Für n = 8, p = 0,95 Q tab = 0,55.

    Denn Q-Tab >Q 1-Berechnung, die Ziffer ganz links ist kein "Miss".

    Überprüfung der Ziffer ganz rechts

    Qcalc

    Auch die Abbildung ganz rechts ist nicht fehlerhaft.

    Wir haben Ergebnisse der zweiten Reihe ja in aufsteigender Reihenfolge:

    78,02<78,08<78,13<78,14<78,16<78,20<78,23<78,26.

    Wir überprüfen die extremen Ergebnisse der Experimente – ob sie fehlerhaft sind.

    Q(n=8, p=0,95)=0,55. Tabellenwert.

    Der Wert ganz links ist kein Fehler.

    Die Ziffer ganz rechts (ist sie falsch).

    Jene. 0,125<0,55

    Die ganz rechte Zahl ist kein "Miss".

    Die Ergebnisse der Experimente unterziehen wir einer statistischen Aufbereitung.

      Wir berechnen den gewichteten Durchschnitt der Ergebnisse:

    - für die erste Ergebniszeile.

    - für die zweite Ergebnisreihe.

      Streuung bezogen auf den Mittelwert:

    - für die erste Reihe.

    - für die zweite Reihe.

      Standardabweichung:

    - für die erste Reihe.

    - für die zweite Reihe.

      Standardabweichung des arithmetischen Mittels:

    Für kleine (n<20) выборках из нормально распределенной генеральной совокупности следует использовать t – распределение, т.е. распределение Стьюдента при числе степени свободы f=n-1 и доверительной вероятности p=0,95.

    Bestimmen Sie anhand der Tabellen der t - Verteilung für eine Stichprobe von n - Ergebnissen den Wert des Konfidenzintervalls des gemessenen Werts für ein bestimmtes Konfidenzniveau. Dieses Intervall kann berechnet werden:

    MIT gleicht die Abweichungen aus und durchschnittliche Ergebnisse zwei Probensets.

    Der Vergleich zweier Varianzen erfolgt anhand der F-Verteilung (Fisher-Verteilung). Wenn wir zwei Stichprobenpopulationen mit Varianzen S 2 1 und S 2 2 und Freiheitsgraden f 1 =n 1 -1 bzw. f 2 =n 2 -1 haben, dann berechnen wir den Wert von F:

    F = S 2 1 / S 2 2

    Und der Zähler ist immer der größere der beiden Stichprobenvarianzen verglichen. Das erhaltene Ergebnis wird mit dem Tabellenwert verglichen. Ist F 0 > F crit (bei p = 0,95; n 1 , n 2), so ist die Diskrepanz zwischen den Varianzen signifikant und die betrachteten Proben unterscheiden sich in der Reproduzierbarkeit.

    Wenn die Diskrepanz zwischen den Varianzen nicht signifikant ist, ist es möglich, die Mittelwerte x 1 und x 2 der beiden Stichprobensätze zu vergleichen, d. h. Finden Sie heraus, ob es einen statistisch signifikanten Unterschied zwischen den Testergebnissen gibt. Um das Problem zu lösen, verwenden Sie t - Verteilung. Berechnen Sie den gewichteten Durchschnitt von zwei Dispersionen im Voraus:

    Und die gewichtete durchschnittliche Standardabweichung

    und dann der Wert von t:

    Bedeutung T exp vergleichen mit T Kreta mit der Anzahl der Freiheitsgrade f = f 1 + f 2 = (n 1 + n 2 – 2) und dem Stichproben-Konfidenzniveau p = 0,95. Wenn gleichzeitig T exp > T Kreta, dann die Differenz zwischen dem Durchschnitt und signifikant und die Stichprobe gehört nicht derselben Grundgesamtheit an. Wenn t exp< t крит, расхождение между средними незначимо, т.е. выборки принадлежат одной и той же генеральной совокупности, и, следовательно, данные обеих серий можно объединить и рассматривать их как одну выборочную совокупность из n 1 +n 2 результатов.

    Kontrollaufgabe Nummer 2

    Die Luftanalyse auf den Gehalt an Komponente X durch das chromatographische Verfahren für zwei Reihen ergab die folgenden Ergebnisse (Tabelle-1).

    3. Ob die Ergebnisse beider Stichproben zur gleichen Grundgesamtheit gehören. Test durch Student-t-Test (p = 0,95; n = 8).

    Tabelle-4.2.1- Anfangsdaten für Kontrollaufgabe Nr. 2

    Optionsnummer

    Komponente



    Ähnliche Beiträge