5.6 Zwei- und mehrdimensionale Zufallsvariablen

Slides:



Advertisements
Ähnliche Präsentationen
Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Advertisements

Die Laufzeit von randomisierten (zufallsgesteuerten) Algorithmen hängt von gewissen zufälligen Ereignissen ab (Beispiel Quicksort). Um die Laufzeiten dieser.
Algebraische Zahlen: Exaktes Rechnen mit Wurzeln
Vom graphischen Differenzieren
Grundlagen der Wahrscheinlichkeitsrechnung - Verteilungen -
Berechnung des Korrelationskoeffizienten Vorbemerkung. Der Korrelationskoeffizient ist im Grunde ein Bruch aus 3 unvollständig berechneten statistischen.
Theorie psychometrischer Tests, III
Klicke Dich mit der linken Maustaste durch das Übungsprogramm!
WS Algorithmentheorie 02 - Polynomprodukt und Fast Fourier Transformation Prof. Dr. Th. Ottmann.
Mehrfachregressionen
2. Univariate Regressionsanalyse 2.1 Das statische Regressionsmodell
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Materialien zu Übung 9 Bälle in Körbe Ranged.
Statistische Methoden I
Nachholung der Vorlesung vom Freitag
Vorlesung Die Vorlesung Statistische Methoden II nächste Woche vom 6. Juni ( nächste Woche ) wird auf den 4. Juni (Mittwoch) vorverlegt ! 14 – 16 Zeit:
Konfidenzintervalle Intervallschätzung
Chi-Quadrat-Test auf Unabhängigkeit I
TESTS. Worum es geht Man möchte testen, ob eine bestimmte Annahme (Hypothese) über Parameter der Realität entspricht oder nicht. Beobachtung (Stichprobe)
Die Student- oder t-Verteilung
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Kolmogorov-Smirnov-Test. A. N. Kolmogorov Geboren in Tambov, Russland. Begründer der modernen Wahrscheinlichkeitstheorie.
Hier noch ein Beispiel zur bedingten Wahrscheinlichkeit Drei Personen A, B und C befinden sich im Gefängnis. Einer von den dreien ist zum Tode verurteilt,
Klausurtermin (laut Prüfungsamt) Probeklausur Freitag, 13. Juni 2003 statt Vorlesung.
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Bedingte Wahrscheinlichkeiten Die Belegschaft eines Betriebes wird nach Rauchern und Nicht- rauchern eingeteilt. Dabei ergibt sich die folgende Tabelle:
Bedingte Wahrscheinlichkeiten
Grundbegriffe der (deskriptiven) Statistikder Wahrscheinlichkeitstheorie.
Statistische Methoden I WS 2004/2005 Probeklausur Freitag, 21. Januar statt Vorlesung - In 2 Wochen In 2 Wochen!
Verteilungsfunktion der Normalverteilung I. Verteilungsfunktion der Normalverteilung II.
Grundbegriffe der (deskriptiven) Statistik
Univariate Statistik M. Kresken.
Heute: Scherenzange zeichnen
Vorlesung: Biometrie für Studierende der Veterinärmedizin
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Binomialverteilung: Beispiel
Vorlesung: ANOVA I
Eigenschaften der OLS-Schätzer
Einfache Regressionsgleichung
Multikollinearität Wann spricht man von Multikollinearität?
Bild 1.1 Copyright © Alfred Mertins | Signaltheorie, 2. Auflage Vieweg+Teubner PLUS Zusatzmaterialien Vieweg+Teubner Verlag | Wiesbaden.
Einführung in die beurteilende Statistik
Ausgleichungsrechnung I
Beschreibung der energetischen Zustände der Elektronen
Wahrscheinlichkeitsverteilung
STATISIK LV Nr.: 1375 SS März 2005.
Wahrscheinlichkeit Zufallsexperiment:
STATISIK LV Nr.: 0028 SS Mai 2005.
STATISIK LV Nr.: 0028 SS Mai 2005.
Grundlagen der Messtechnik
IK Ökonomische Entscheidungen und Märkte
Wahrscheinlichkeitsrechnung
Wahrscheinlichkeitsrechnung
Lösen von quadratischen Ungleichungen
1 (C) 2002, Hermann Knoll, HTW Chur, Fachhochschule Ostschweiz Wahrscheinlichkeitsverteilung Lernziele: Wahrscheinlichkeitsverteilung und der Wahrscheinlichkeitsdichte.
Theorie psychometrischer Tests, II
Lernprogramm : „Quadratische Funktionen“ von W. Liebisch
Tutorium Statistik II Übung IV Philipp Schäpers Mi – 11.45
6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik ange-sehen werden. Sie wird nach ihrem Entdecker auch.
Statistik – Regression - Korrelation
Vom graphischen Differenzieren
Monatsbericht Ausgleichsenergiemarkt Gas – Oktober
setzt Linearität des Zusammenhangs voraus
Die Binomialverteilung
Der Wiener Prozess und seltene Ereignisse
Aufgabe 5 Gegeben sei folgende Graphik mit den zugehörigen Merkmalsdefinitionen. – Erstellen Sie die zugehörige Kontingenztabelle der absoluten Häufigkeiten.
Grafische Darstellung von Gruppenunterschieden.
Lineare Optimierung Nakkiye Günay, Jennifer Kalywas & Corina Unger Jetzt erkläre ich euch die einzelnen Schritte und gebe Tipps!
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
 Präsentation transkript:

5.6 Zwei- und mehrdimensionale Zufallsvariablen Wir betrachten jetzt den Fall, dass mehrere Zufallsvariablen gleichzeitig analysiert werden. Allgemein ist eine n-dimensionale Zufallsvariable durch das n-Tupel (X1, X2, …, Xn) gegeben. Wir beschränken uns hier aber auf den Fall der zweidimensionalen Zu- fallsvariablen, (X, Y) da die Konzepte mehrdimensionaler Verteilung anhand von bivariaten Verteilun- gen anschaulich illustriert werden können. Zwei- und mehrdimensionalen Verteilungen können diskrete oder stetige Zufalls- variablen zugrunde liegen. Wir unterscheiden hier zwischen der • gemeinsame Wahrscheinlichkeitsverteilung (gemeinsame Wahrscheinlichkeits- bzw. Dichtefunktion) und den • Randverteilungen (Randwahrscheinlichkeits- bzw. Randdichtefunktion). Wie bei den eindimensionalen Verteilungen sind der Erwartungswert und die Va- rianz Parameter der Randverteilungen. Parameter der gemeinsamen Wahr- scheinlichkeitsverteilungen sind die Kovarianz und der Korrelationskoeffizient.

Beispiel 5.18: • Ein Würfel wird zweimal hintereinander geworfen. Die Zufallsvariable X be- zeichnet die Augenzahl beim ersten Würfel, die Zufallvariable Y die Augenzahl beim zweiten Würfel. Dann ist (X, Y) eine zweidimensionale Zufallsvariable, deren Wertebereich aus allen geordneten Paaren (xj, yk) besteht, die sich aus den natürlichen Zahlen 1 bis 6 zusammensetzen. • Eine Versicherungsgesellschaft will überprüfen, ob es einen Zusammenhang zwischen der Unfallhäufigkeit (X) und dem Geschlecht (Y) gibt. Hierzu wird die zweidimensionale Zufallsvariable (X, Y) analysiert. • In der Volkswirtschaftlichen Gesamtrechnung werden der Konsum (C) und das Einkommen (Y) je Periode erfasst. Die zweidimensionale Zufallsvariable (C, Y) gibt dann die potenziellen Kombinationen aus Konsum und Einkommen je Pe- riode wieder. ♦

A. Gemeinsame Wahrscheinlichkeitsfunktion und Randwahrscheinlichkeitsfunktionen Die gemeinsame Wahrscheinlichkeitsfunktion f(x,y) der zweidimensionalen Zufallsvariablen (X,Y) ordnet den geordneten Paaren (xj,yk) Wahrscheinlichkeiten pjk zu: (5.24) Die Randwahrscheinlichkeitsfunktionen (5.25) und (5.26) geben die eindimensionalen Wahrscheinlichkeitsfunktionen der beiden Zufalls- variablen X und Y an. Die Randwahrscheinlichkeitsfunktion von X, f1(x), wird durch Summation über alle c Spalten ermittelt. Die Randwahrscheinlichkeitsfunktion von Y, f2(y), wird durch Summation über alle r Zeilen bestimmt.

Tabelle 5.1: Gemeinsame Wahrscheinlichkeiten und Randwahrscheinlichkeiten Gemeinsame Wahrscheinlichkeiten: f(xj,yk) = pjk = P(X=xj,Y=yk) Randwahrscheinlichkeiten von X: Randwahrscheinlichkeiten von Y:

Beispiel 5.19: Eine Versicherungsgesellschaft will überprüfen, ob ein Zusammenhang zwischen der Unfallhäufigkeit (X) und dem Geschlecht (Y) besteht. Es wurden hierfür fol- gende Wahrscheinlichkeiten ermittelt: Mit diesen Informationen lässt sich eine Tabelle der zweidimensionalen Verteilung von (X,Y) erstellen. Die Randwahrscheinlichkeiten pj• und p•k ergeben sich darin durch Summation der gemeinsamen Wahrscheinlichkeiten pjk.

Stochastische Unabhängigkeit Die beiden diskreten Zufallsvariablen X und Y sind voneinander unabhängig, wenn sich die gemeinsame Wahrscheinlichkeitsfunktion als Produkt der Randwahrschein- lichkeitsfunktionen darstellen lässt: (5.27a)  stochastische Unabhängigkeit Bei stochastischer Unabhängigkeit lassen sich alle gemeinsamen Wahrscheinlich- keiten pjk aus dem Produkt der Randwahrscheinlichkeiten pj• und p•k darstellen: (5.27b) für alle j=1,2,…,r und k=1,2,…,c  stochastische Unabhängigkeit

Beispiel 5.20: Sind die Zufallsvariablen Unfallhäufigkeit und Geschlecht unabhängig voneinander? Zur Beantwortung dieser Frage berechnen wir die Produkte der Randwahrschein- lichkeiten: z.B. Beide Merkmale sind abhängig, da die berechneten Produkte der Randwahrschein- lichkeiten pj•·p•k nicht mit den gemeinsamen Wahrscheinlichkeiten pjk übereinstimmen. ♦

B. Gemeinsame Dichtefunktion und Randdichtefunktionen Die beiden Zufallsvariablen X und Y sind gemeinsam stetig verteilt, wenn es eine gemeinsame Dichtefunktion f(x,y) mit den Eigenschaften und gibt, so dass die gemeinsame Intervallwahrscheinlichkeit P(aXb,cYd) durch (5.28) gegeben ist.

Beispiel 5.21: Gegeben ist die gemeinsame Dichtefunktion der zweidimensionalen Zufallsvaria- blen (X,Y), , die sich in einem dreidimensionalen Koordinatensystem darstellen lässt:

Hierzu integrieren wir zuerst über x, Gesucht ist die Wahrscheinlichkeit, dass die Zufallsvariable X in dem Intervall zwi- schen 0,5 und 1 und die Zufallsvariable Y gleichzeitig in dem Intervall zwischen 0,4 und 0,6 liegt. Um die gesuchte Wahrscheinlichkeit P(0,5X1;0,4Y0,6) zu berechnen, ist ein Doppelintegral zu lösen: . Hierzu integrieren wir zuerst über x, ,

und anschließend über y: Die gesuchte Wahrscheinlichkeit beträgt also 0,125. Mit einer Wahrscheinlichkeit von 12,5 % liegt die Zufallsvariable X zwischen 0,5 und 1 und die Zufallsvariable Y gleichzeitig zwischen 0,4 und 0,6. ♦

Aus der gemeinsamen Dichtefunktion f(x,y) lassen sich die Randdichtefunktio- nen durch Integration bestimmen: (5.29a) und . (5.29b) Bei stochastischer Unabhängigkeit der beiden stetigen Zufallsvariablen X und Y ist gemeinsame Dichtefunktion f(x,y) durch das Produkt der Randdichtefunktionen fX(x) und fY(y) gegeben:  stochastische Unabhängigkeit. (5.30)

Beispiel 5.22: Wie lauten die Randdichtefunktionen der Zufallsvariablen X und Y, deren ge- meinsame Dichtefunktion durch gegeben ist? • Randdichtefunktion von X: • Randdichtefunktion von Y: ♦

Für diskrete Zufallsvariablen X und Y berechnet sich die Kovarianz aus C. Parameter der gemeinsamen Wahrscheinlichkeitsverteilung der zweidimensionalen Zufallsvariablen (X, Y) ● Kovarianz Die Kovarianz der beiden Zufallsvariablen X und Y ist ein Maß der Verbund- streuung: (5.31a) . Sie misst die Richtung eines linearen Zusammenhangs zwischen zwei Zufalls- variablen X und Y. Für diskrete Zufallsvariablen X und Y berechnet sich die Kovarianz aus (5.32a) und bei stetigen Zufallsvariablen aus . (5.32b) Verschiebungssatz: (5.31b) Cov(X,Y) = E(X·Y) – E(X)·E(Y)

Eintrittswahr-scheinlichkeit Beispiel 5.23: Für die zukünftigen Konjunkturaussichten wird von einem Wirtschaftsforschungs- institut folgendes Szenario entwickelt: Umweltzustand Beschreibung Eintrittswahr-scheinlichkeit 1 keine wesentliche Änderung des ökonomischen Umfelds 0,5 2 Rezession 0,3 3 Hochkonjunktur 0,2 Die möglichen Rahmenbedingungen beeinflussen die Ertragssituation von Unter­ nehmen und damit die Kursentwicklung ihrer Aktien. Abhängig von der Rahmen­ bedingung erwarten die Investoren als Renditen für zwei Aktien X und Y: Umweltzustand Rendite X Rendite Y 1 3,5 % 5,0 % 2 4,0 % -1,0 % 3 2,0 % 7,0 %

Aus den angegebenen Größen lässt sich folgende zweidimensionale Wahrschein- lichkeitstabelle erstellen:

Zunächst bestimmen wir die erwarteten Renditen der beiden Aktien: Die Kovarianz errechnet sich mit der Formel für den diskreten Fall: Da die Kovarianz negativ ist, besteht zwischen den Renditen der beiden Aktien ein negativer linearer Zusammenhang. Mit einer höheren Rendite der einen Aktie geht also tendenziell eine niedrigere Rendite der anderen Aktie einher. 

● Korrelationskoeffizient Die Kovarianz gibt keine Auskunft über die Stärke des Zusammenhangs zwischen zwei Zufallsvariablen X und Y, weil sie unbeschränkt ist. Aus diesem Grund wird der Korrelationskoeffizient zur Messung der Stärke eines bivariaten Zusammen- hangs verwendet: (5.33) Das Vorzeichen des Korrelationskoeffizienten wird nur von der Kovarianz bestimmt, da der Nenner stets positiv ist. Der Korrelationskoeffizient gibt zunächst einmal wie die Kovarianz die Richtung einer linearen Abhängigkeit an. Zusätzlich misst der Korrelationskoeffizient xy die Stärke des linearen Zusammen- hangs zwischen den Zufallsvariablen X und Y, da er im Unterschied zur Kovarianz xy auf das Intervall zwischen -1 und 1 normiert ist. Je näher der Korrelationskoeffi- zient an den Extremwerten -1 oder +1 liegt, desto stärker ist der lineare Zusammen- hang ausgeprägt.

Beispiel 5.24: Wir wollen jetzt die Stärke des Zusammenhangs zwischen den Renditen X und Y der beiden Aktien messen, die eine Kovarianz von -0,000171 aufweisen. Hierzu sind die Varianzen der beiden Zufallsvariablen X und Y zu berechnen, aus denen sich ihre Standardabweichungen ergeben. Varianz von X: Standardabweichung von X: Varianz von Y: Standardabweichung von Y: Korrelationskoeffizient: Bei einem Korrelationskoeffizient von rd. -0,8 besteht ein enger negativer Zusam- menhang zwischen den Renditen der beiden Aktien. 

D. Erwartungswert und Varianz einer Linearkombination von Zufallsvariablen Gegeben: n Zufallsvariablen: X1, X2, …, Xn Linearkombination der Zufallsvariablen X1, X2, …, Xn: (5.34) ● Erwartungswert einer Linearkombination von Zufallsvariablen (5.35) ● Varianz einer Linearkombination von Zufallsvariablen - bei stochastischer Unabhängigkeit: (5.36) - bei stochastischer Abhängigkeit zweier Zufallsvariablen X und Y: (5.37)

Beispiel 5.25: Die Portfoliotheorie zeigt auf, wie optimale Wertpapierportfolios strukturiert sein müssen. Alternative Ertrags-Risiko-Kombinationen, die durch den Erwartungswert und die Varianz der Renditen gemessen werden, lassen sich unter Berücksichti-gung der Präferenzen eines Anlegers bewerten. Für den Anleger wird es im Allgemeinen vorteilhaft sein, gleichzeitig unterschied-liche risikobehaftete Wertpapiere zu halten. Hierbei kommt es nicht nur auf die erwartete Rendite, sondern auch auf eine günstige Korrelationsstruktur an, die das Risiko der Wertpapieranlage verringert. Wir setzen die Bespiele 5.23 und 5.24 fort, in denen wir die erwarteten Renditen und die Varianzen für zwei Aktien separat betrachtet haben: und und . Für die Kovarianz haben wir den Wert erhalten und der Korrelationskoeffizient beträgt .

Wir wollen nun die Ertrags-Risiko-Struktur von zwei Aktienportfolios betrachten. Aktienportfolio 1: 100% Aktie X, 0% Aktie Y Aktienportfolio 2: 80% Aktie X, 20% Aktie Y ● Ertrags-Risiko-Struktur des Aktienportfolios 1 Erwartete Rendite des Portfolios 1: mit a=1 und b=0 Risiko des Portfolios 1: mit a=1 und b=0

● Ertrags-Risiko-Struktur des Aktienportfolios 2 Erwartete Rendite des Portfolios 2: mit a=0,8 und b=0,2 Risiko des Portfolios 2: mit a=0,8 und b=0,2 Das Aktienportfolio 2, das aus einer Mischung der beiden Aktien X und Y im Ver- hältnis 4:1 (80%:20%) besteht, hat eine bessere Ertrags-Risiko-Struktur als das Aktienportfolio 1, das allein aus der Aktie X besteht. ♦