Vorlesung: ANOVA I 11.11.2003.

Slides:



Advertisements
Ähnliche Präsentationen
T - Test Prüfung des Mittelwerteunterschieds bei abhängigen und unabhängigen Stichproben.
Advertisements

Heute 1.F – Test zur Varianzhomogenität 2.Bartlett-Test zur Varianzhomogenität 3.Chi – Quadrat Tests für Häufigkeiten 4.Chi – Quadrat Tests zur Verteilungsanpassung.
Forschungsstrategien Johannes Gutenberg Universität Mainz
Thema der Stunde I. Einführung in die Varianzanalyse:
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik II
Heute Prüfung der Produkt-Moment Korrelation
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-26.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
A-Priori Kontraste Prüfung des Mittelwerteunterschieds von Faktorstufen bzw. Kombinationen von Faktorstufen: z.B.: oder.
Der Binomialtest Man habe einen wahren Anteil P.
Hypothesen testen: Grundidee
Effektgrößen, Kontraste & Post-hoc-Tests
Fragen Was wird mit der Alphafehler-Kumulierung bzw. –inflation bezeichnet? Wie hoch ist die Wahrscheinlichkeit bei einer Untersuchung mit 4 Gruppen einen.
Induktive Statistik.
Statistische Methoden II
Nachholung der Vorlesung vom Freitag
Konfidenzintervalle Intervallschätzung
M-L-Schätzer Erwartungswert
Statistische Methoden II SS 2007 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
SR 222 : Fleischmannstraße 6 SR : Loefflerstraße 70
TESTS. Worum es geht Man möchte testen, ob eine bestimmte Annahme (Hypothese) über Parameter der Realität entspricht oder nicht. Beobachtung (Stichprobe)
Die Student- oder t-Verteilung
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Konfidenzintervalle Intervallschätzung Jeder Beobachtung wird ein Intervall C( ) der reellen Zahlen zugeordnet Niveau Dabei ist die Wahrscheinlichkeit,
Statistische Methoden I SS 2005 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
Kolmogorov-Smirnov-Test. A. N. Kolmogorov Geboren in Tambov, Russland. Begründer der modernen Wahrscheinlichkeitstheorie.
Statistische Methoden I WS 2007/2008 Donnerstag, 31. Januar 2008 und Freitag, 1. Februar 2008 Probeklausur nächste Woche - statt Vorlesungen -
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Klausurtermin (laut Prüfungsamt) Probeklausur Freitag, 13. Juni 2003 statt Vorlesung.
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
Achtung Vorlesung am nächsten Montag (21. Juni) Zeit: Uhr Ort: Kiste.
Die Vorlesung am 14. Mai (Tag nach Himmelfahrt) wird auf Montag, den 17. Mai verlegt! Zeit: 16 Uhr Ort: Kiste Nächste Woche!!!!
Statistische Methoden II SS 2003 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
III. Induktive Statistik
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Die Vorlesung am 14. Mai (Tag nach Himmelfahrt) wird verlegt. Der Nachholtermin wird noch bekannt gegeben.
Statistische Methoden II SS 2003
Extra-SPSS-Kurse Durchführung: Birte Holtfreter Termine Di Mi Mi Ort PC-Pool Loefflerstarße.
Statistische Methoden I WS 2009/2010 Probeklausur Montag, 25. Januar statt Vorlesung -
Test auf Normalverteilung
Klausur am :00 bis 13:00 Hörsaal Loefflerstraße und Hörsaal Makarenkostraße.
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Deskriptive Statistik
Sportwissenschaftliche Forschungsmethoden SS Statistischer Test.
Tutorium
Tutorium
Tutorium
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Binomialverteilung: Beispiel
Vorlesung: ANOVA II.
Eigenschaften der OLS-Schätzer
Wiederholung: Einfache Regressionsgleichung
Einführung in die beurteilende Statistik
Ausgleichungsrechnung I
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Chi Quadrat Test Tamara Katschnig.
Wahrscheinlichkeitsrechnung
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Globale Interpolations- und Prädiktionsverfahren
Die Poisson-Verteilung: Mittelwert und Standardabweichung
STATISIK LV Nr.: 0028 SS Mai 2005.
Modul Statistische Datenanalyse
SStotal SStotal SStreat SSerror SStreat SSerror Biomasse (g) wenig
Einführung zur Fehlerrechnung
Stochastik ganz kurz Beispiel diskret Würfelwurf Beispiel stetig
K. Desch - Statistik und Datenanalyse SS05
 Präsentation transkript:

Vorlesung: ANOVA I 11.11.2003

= Analysis of Variances ANOVA = Analysis of Variances ANOVA ist eine statistische Analysemethode, um Haupteffekte und Interaktionseffekte zwischen kategorisch unabhängigen Variablen bzgl. einer abhängigen Variablen aufzudecken Haupteffekt: Messvariable Interaktionseffekt: gemeinsame Effekte von 2 oder mehr Variablen auf eine abhängige Variable (die Messvariable) Messung: Cholesterin bekannt: Rauchen (Ja,Nein); Gewicht/Größe (dick,dünn); Alter (alt,jung) Fragen: Welche der bekannten Variablen haben einen Einfluß ? Ist der Einfluß signifikant ? Ist ev. die Interaktion von zwei Variablen signifikant ?

Array 1 Array 2 Patient: Grün Kontrolle: Rot Patient: Rot Kontrolle: Grün ARRAY 1 oder 2 ? Variety: Patient oder Kontrolle ? Intensität: 14527 Farbstoff: Grün oder Rot ? Welches Gen ?

Variety Array Gen Dye= Farbstoff Array-Dye Array-Gen Variety-Dye Variety-Gen Dye-Gen Array-Variety

ANCOVA (Analysis of Covariances) Varianten der ANOVA ANCOVA (Analysis of Covariances) Kontinuierliche Variablen statt diskrete; diese werden “Covariates” genannt. (2) MANOVA (Multiple Analysis of Variances) Mehrere abhängige Variablen: zB: Auswirkung der Benutzung verschiedener Lehrbücher auf die Klausurergebnisse in Mathematik UND Physik (3) MANCOVA (Multiple Analysis of Covariances) Mehrere abhängige Variablen, aber die Covarianten sind kontinuierlich

ANOVA Statistik F Test für Differenzen der Gruppen Mittelwerte. Test, ob der Mittelwert der Gruppen, die durch die Werte der unabhängigen Variablen oder deren Kombinationen unterschiedlich genug sind, um nicht durch Zufall aufgetreten zu sein. Der ANOVA F Test ist eine Funktion der Varianz einer Gruppe von Mittelwerten, Gesamtmittelwert aller Beobachtungen und der Varianzen der Beobachtungen in jeder Gruppe gewichtet bzgl. einer Gruppenmengengröße. Falls der Gruppenmittelwert sich nicht signifikant unterscheidet, dann heißt dies, daß die unabhängige Variable(n) keine Effekt auf die abhängige hat/haben. Wenn der F Test eine Abhängigkeit mit der abhängigen Variablen anzeigt, dann wird ein multipler Vergleichstest auf Signifikanz angewendet, um zu sehen, welche Gruppen den größten Einfluß auf die Beziehung haben.

Was hat das Testen auf Mittelwertdifferenzen mit Varianzen zu tun ? Im Mittelpunkt der ANOVA steht die Tatsache, daß man Varianzen partitionieren kann. Die Varianz ist die Summe der quadrierten Abweichungen vom Mittelwert dividiert durch die Anzahl der Proben minus 1. Damit ist die Varianz eine Funktion der Summe der quadrierten Standardabweichungen (SQ). Wie werden nun die Varianzen zerlegt ?

Angenommen, wir haben folgenden Datensatz Beispiel: Angenommen, wir haben folgenden Datensatz Gruppe1 Gruppe2 Beob.1 2 6 Beob.2 3 7 Beob.3 1 5 Mittelwert SQ 4 Gesamtmittel GesamtSQ 28 Beobachtungen: Die Mittelwerte der beiden Gruppen sind sehr unterschiedlich Die Summe der Quadrate ist in beiden Gruppen = 4 Insgesamt ist die Summe der Quadrate (unter Vernachlässigung der Gruppenzugehörigkeiten) = 28 Die Varianzen innerhalb der Gruppen ist wesentlich kleiner als die Gesamtvariabilität. Der Grund hierfür liegt darin, daß die Mittelwerte sehr unterschiedlich sind.

Gruppe1 Gruppe2 Beob.1 2 6 Beob.2 3 7 Beob.3 1 5 Mittelwert SQ 4 Gesamtmittel GesamtSQ 28 Gesamtvariabilität - Gruppenvariabilität = 28 - (4+4) = 20 SQ Effekt Unter der Nullhypothese sollte die Varianz innerhalb der Gruppen ungefähr so groß sein wie die zwischen den Gruppen. Wir können diese Schätzer der Varianz mittels F Test vergleichen. Dieser Test überprüft, ob der Quotient der beiden Varianz Schätzer signifikant größer als 1 ist. Hier F=20 => signifikant, p<0.05 (Ausgabe in R: p=0.04761905) dh. wir können schließen, dass die zwei Gruppen signifikant unterschiedlich sind. Wie kommen wir nun zu dieser Statistik ?

F Statistik Definitionen und Grundbegriffe: Gamma Funktion Verteilungsfunktion, Dichte Erwartungswert, Standardabweichung und Varianz stochastische Unabhängigkeit F Verteilung p Wert

Gamma Funktion Definition Zunächst gilt: (n)=(n-1)! Dies gilt aber nur für natürliche Zahlen. Insbesondere gilt Gaußsche Definition

Verteilungsfunktion, Dichte Diskrete Zufallsvariable Bei diskreten Zufallsvariablen läßt sich jedem möglichen Ereignis genau eine bestimmte Eintrittswahrscheinlichkeit zuordnen. Beispiel: Eine Münze wird dreimal geworfen. Wie groß ist die Wahrscheinlichkeit dafür, daß xi-mal das Wappen oben liegt? Summe: P(x1)+P(x2)+P(x3)+P(x4) = 0.125+0.375+0.375+0.125 = 1 Die Zuordnung der Wahrscheinlichkeiten P(xi) zu den möglichen Ereignissen xi erfolgt über die sogenannte Wahrscheinlichkeitsfunktion fX. P(xi)= fX(xi) Es gilt: 0  fX(xi)  1 und  fX(xi) =1 1.Wurf Ja Nein 2.Wurf 3.Wurf 2xJa,1xNein 3*0.53 = 0.375 2xNein,1xJa 3*0.53 = 0.375 3xJa 0.53 = 0.125 3xNein 0.53 = 0.125

Verteilungsfunktion, Dichte Stetige Zufallsvariable Eine stetige Zufallsvariable weißt ein völlig anderes Verhalten auf. Da es unendlich viele mögliche Ausprägungen gibt, ist die Wahrscheinlichkeit dafür, daß genau ein bestimmtes Ereignis eintritt, gleich Null. Dies bedeutet aber nicht, daß dieses Ereignis unmöglich wäre. Anstelle von Wahrscheinlichkeiten werden bei stetigen Zufallsvariablen Dichten angegeben und zwar in Form der sogenannten Dichtefunktion fX. Die Dichte kann nicht negativ werden; kann aber Werte >1 annehmen. Das bestimmte Integral von – bis + beträgt Eins. fX(x) >= 0 +  fX(x) dx = 1 –

Verteilungsfunktion, Dichte Für viele Fragestellungen ist es von Relevanz, wie groß die Wahrscheinlichkeit dafür ist, daß eine Zufallsvariable X einen bestimmten Wert x nicht überschreitet. Gesucht ist also: P(X  x) bzw P(– <X  x) Eine Funktion, die diese Wahrscheinlichkeit für jeden Wert x in R angibt, wird Verteilungsfunktion genannt und mit FX(x) bezeichnet. Diskreter Fall Stetiger Fall FX(x) = –x fX(t)dt FX ist monoton steigend FX ist stetig lim x-> – FX (x) = 0 lim x-> + FX (x) = 1 Es gilt: P(a<x<b)= ab fX(x)dx = FX(b)- FX(a) FX(x) = xi x fX(xi) FX ist monoton steigend lim x-> – FX (x) = 0 lim x-> + FX (x) = 1 Funktion, die von – kommend bei 0 beginnt und treppenförmig bis 1 ansteigt und dort bis + bleibt

Erwartungswert, Standardabweichung und Varianz Der Erwartungswert einer Wahrscheinlichkeitsverteilung entspricht dem arithmetischen Mittel in der deskriptiven Statistik. Diskreter Fall: E(X) = i xi fX(xi) Stetiger Fall: E(X) = Die Varianz bzw. die Standardabweichung ist folgendermaßen definiert: Varianz(X) = Var(X) = 2 = i (xi-E(X))2 fX(xi) = i (xi2 fX(xi) ) – (E(X))2 Varianz(X) = Var(X) = 2 = Sowohl für den diskreten wie stetigen Fall gilt: Die Standardabweichung ist definiert durch: X = +Var(X) +  xfX(x) dx – + +  (x-E(X))2 fX(x) dx =  x2 fX(x) dx –(E(X))2 – –

Stochastische Unabhängigkeit Bedingte Wahrscheinlichkeit für zwei Ereignisse A und B Multiplikationssatz Stochastische Unabhängigkeit Zwei Ereignisse A, B mit der Eigenschaft heißen stochastisch unabhängig. Wie groß ist die Wahrscheinlichkeit, daß A eintreten wird, vorausgesetzt, daß B bereits eingetreten ist? PB(A) := P(A|B):= P(A B) /P(B)  P(A B) = P(A|B)P(B) = P(B|A)P(A)  P(A B) = P(A)P(B) 

F-Verteilung (1) Ist X eine standard-normalverteilte Variable (N(0,1)), so wird die Verteilung der Variable X2 ChiQuadrat Verteilung mit einem Freiheitsgrad genannt. (2) Sind X1, ... ,Xn unabhängige ChiQuadrat verteilte Variablen mit 1 Freiheitsgrad, so wird die Verteilung von Y = i Xi 2 Verteilung mit n Freiheitsgraden genannt: 2 n Die Dichte ist gegeben durch: f(y) = 1/ [2n/2 (n/2)] * y n/2-1 exp(-y/2) y>=0 E(Y) = n Var(Y) = 2n

F-Verteilung (3) Sind X, Y zwei unabhängige ChiQuadrat verteilte Variablen mit m und n Freiheitsgraden, so wird die Verteilung von Z = X/m / Y/n F Verteilung mit m,n Freiheitsgraden genannt: F m,n Die Dichte ist gegeben durch: f(z) = [(m+n)/2 ]/ [(m/2) (n/2)] * m/n m/2 z m/2-1 (1+m/n z) -(m+n)/2 z>=0 E(Z) = n/(n-2) n>=2 Var(Z) = 2n2(m+n-2)/[m(n-2)2(m-4)] n>=5 SATZ: Sind X,Y zwei unabhängige normalverteilte Variablen, so ist Var(X)/Var(Y) F-verteilt.

P-Wert Die Wahrscheinlichkeitswert (probability value, p-value) eines statistischen Hypothesentests gibt die Wahrscheinlichkeit an, aus der Teststatistik zufällig einen Wert zu erhalten, der mindestens so extrem ist wie der beobachtete unter der Voraussetzung, daß die Nullhypothese H0 wahr ist. Er gibt die Wahrscheinlichkeit an, fälschlicherweise die Nullhypothese abzulehnen, obwohl sie eigentlich richtig ist. Der p-Wert wird mit dem Signifikanzlevel verglichen (meist 0.05). Ist er kleiner, erhalten wir ein signifikantes Ergebnis. Das heißt, falls die Nullhypothese mit einem Signifikanzlevel von 5% abgelehnt wird, so gilt: p<0,05.

62 60 63 59 nd 67 71 64 65 66 68 56 61 Beispiel: ANOVA Experiment: Wir messen die Konzentration eines Proteins nach Behandlung von Zellen mit vier verschiedenen Lösungen Messung 1 2 3 4 5 6 7 8 Behandlung A 62 60 63 59 nd B 67 71 64 65 66 C 68 D 56 61

Beispiel: ANOVA A B C D Min: 59.0000 63.0000 66.0000 56.0000 1st Qu.: 59.7500 64.2500 67.2500 59.7500 Mean: 61.0000 66.0000 68.0000 61.0000 Median: 61.0000 65.5000 68.0000 61.5000 3rd Qu.: 62.2500 66.7500 68.0000 63.0000 Max: 63.0000 71.0000 71.0000 64.0000 Total N: 8.0000 8.0000 8.0000 8.0000 NA's : 4.0000 2.0000 2.0000 0.0000 Variance: 3.3333 8.0000 2.8000 6.8571 Std Dev.: 1.8257 2.8284 1.6733 2.6186 Sum: 244.0000 396.0000 408.0000 488.0000 Sind die Differenzen in den Mittelwerten/Medianen der Meßwerte der unterschiedlichen Behandlungsmethoden signifikant oder sind sie zufällig?

V = + Beispiel: ANOVA 62 60 63 59 67 71 64 65 66 68 56 61 -2 -4 -1 -5 1 2 4 -8 -3 Summe/Anzahl 64 + Können wir dies in eine Behandlungsspezifischen und Residuen-Effekt zerlegen?

Beispiel: ANOVA V = Gesamtmittelwert + [ Behandlungsmittelwert-Gesamtmittelwert ] + [ Datenpunkt-Behandlungsmittelwert ]  + yi – y + yij – yi 64 61 66 68

Beispiel: ANOVA -3 2 4 1 -1 2 -2 -3 5 3 -5 V = 64 + +

… ANOVA Zunächst soll die Varianzanalyse und der F-Test im Falle von: I Proben je der Länge J dargestellt werden, d.h. ein Experiment mit I Behandlungen, jede J mal gemessen. Den Fall, den wir eben betrachtet haben, bei dem unterschiedlich häufig gemessen wurde, betrachten wir danach. Messung 1 2 3 ... J Behandlung 1 2 3 ... I …

ANOVA Das zugrundeliegende Modell ist das folgende: Yij = j-te Beobachtung in der i-ten Behandlung Jede einzelne Beobachtung wird gestört durch einen möglichen zufälligen Fehler. Außerdem nimmt man an, daß der Fehler der einen Beobachtung unabhängig von demjenigen einer anderen Beobachtung. Yij =  + i + ij Zufälliger Fehler in der j-ten Beobachtung und i-ten Behandlung „differentieller Effekt“ in der i-ten Behandlung Gesamtmittelwert Die Fehler werden als unabhängig angenommen und sind normalverteilt mit Erwartungswert 0 und Varianz 2 Außerdem sind die i normalisiert, d.h.: i i = 0 Der Erwartungswert der i-ten Behandlung und j-ten Messung beträgt: E(Yij) =  +  i

ANOVA Die Varianzanalyse basiert auf der folgenden Identität: i j (Yij – Y..)2 = i j (Yij – Yi.)2 + J i (Yi – Y..)2 wobei Yi. = 1/J j Yij das Mittel der Beobachtungen in der i-ten Behandlung beschreibt und Y.. = 1/IJ i,j Yij das Gesamtmittel. SQinnerhalb SQzwischen Summe der Quadrate SQgesamt

ANOVA Lemma: Seien X1,...,Xn unabhängige Zufallsvariablen mit Erwartungswerten E(Xi) = i und Varianz Var(Xi) = 2. Dann gilt: E(Xi – X)2 = (i –1/n i i )2 + (n-1)/n 2 Mittels dieses Lemmas läßt sich folgender Satz zeigen: Satz1: E(SQinnerhalb) = i j E(Yij – Yi.)2 = i j J-1/J  2 = I(J-1)  2 E(SQzwischen) = J j E(Yi. – Y..)2 = J j [i2 + (I-1)/IJ  2 ] = J j [i2 + (I-1)  2 ] Ein Schätzer für die Varianz ist gegeben durch: SQinnerhalb/I(J-1)

ANOVA Satz2: Wenn alle Fehler unabhängig normalverteilt sind mit Erwartungswert 0 und Varianz 2, dann gilt: SQinnerhalb/2 folgt einer 2 Verteilung mit I/(J-1) Freiheitsgraden. Sind außerdem alle i Null, dann folgt auch SQzwischen/2 einer 2 Verteilung mit (I-1) Freiheitsgraden und ist unabhängig von SQinnerhalb. Die Statistik F = SQzwischen/(I-1) / SQinnerhalb/[I(J-1)] wird benutzt, um die Nullhypothese: H0: 1 = 2 = 3 =... = i =0 zu testen. Wenn die Nullhypothese richtig ist, so sollte die F-Statistik nahe bei 1 liegen. Ist sie hingegen falsch, sollte die Statistik zu Werten größer 1 tendieren, da die Erwartung des Zählers anwächst.

ANOVA Nun zu dem Problem, daß nicht jede Meßreihe gleich lang sein muß, d.h. es könnte sein – wie in unserem Eingangsbeispiel – daß für jede Behandlung unterschiedlich viele Messungen durchgeführt wurden. Das bedeutet: J hängt von der i-ten Behandlung ab: Ji Dann gilt: i j(i) (Yij – Y..)2 = i j(i) (Yij – Yi.)2 + J(i) i (Yi – Y..)2 E(SQinnerhalb) =  2 j J(i)-1 E(SQzwischen) = (I-1)  2 + j J(i) i2 Die Freiheitsgrade für die Quadratsummen betragen: i J(i)-I und I-1 E(SQinnerhalb) = I(J-1)  2 E(SQzwischen) = J j [i2 + (I-1)  2 ]

62 60 63 59 nd 67 71 64 65 66 68 56 61 Zurück zu unserem Beispiel: Messung 1 2 3 4 5 6 7 8 Behandlung A 62 60 63 59 nd B 67 71 64 65 66 C 68 D 56 61

F = SQzwischen/(I-1) / SQinnerhalb/ i J(i)-I Zurück zu unserem Beispiel: i j(i) (Yij – Y..)2 = i j(i) (Yij – Yi.)2 + i J(i) (Yi – Y..)2 SQinnerhalb SQzwischen Summe der Quadrate SQgesamt F = SQzwischen/(I-1) / SQinnerhalb/ i J(i)-I

Zurück zu unserem Beispiel: Mittel=64 J(i)=[4 6 6 8] Yi. =[61 66 68 61] SQinnerhalb=112 SQzwischen=228 Freiheitsgrade: 3; 20 Variationsquelle SQ Freiheitsgrade F Zwischen 228 3 Behandlung 76/56=13.6 innerhalb 112 20 SQ Total 340 n-1 23

Zurück zu unserem Beispiel: Falls H0 (alle Mittel in allen Behandlungen sind gleich) richtig sein sollte, müßte F einer F 3;20 Verteilung folgen. Andernfalls, müßte F größer sein, also lehnen wir H0 bei hinreichend großem F ab. Also müssen wir testen: P(F 3;20 > F beobachtet) = P(F 3;20 > 13.6) In R: > pf(13.6,3,20,lower.tail=F) [1] 4.654599e-5