Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Christian Eurich Institut für Theoretische Neurophysik Einführung in die Wahrscheinlichkeitsrechnung.

Ähnliche Präsentationen


Präsentation zum Thema: "Christian Eurich Institut für Theoretische Neurophysik Einführung in die Wahrscheinlichkeitsrechnung."—  Präsentation transkript:

1 Christian Eurich Institut für Theoretische Neurophysik Einführung in die Wahrscheinlichkeitsrechnung

2 Ziele... In 8 Schritten... Grundbegriffe ins Gedächtnis rufen... nicht für Experten!... Mischung aus Mathematik und Praxis... Anwendungen aus dem Neuro-Bereich Wahrscheinlichkeitsrechnung...

3 1. Stochastizität: Arbeitsdefinition Radioaktiver Zerfall Münzwurf, Würfeln Schwankungen des Körpergleichgewichts Ein System verhält sich stochastisch, wenn wir sein Verhalten nicht vorhersagen können. Die Ursache der Stochastizität wird (hier) nicht betrachtet. Stabilogramm Beispiele:

4 Stochastizität: Arbeitsdefinition Neuronale Aktivität Metronom: Beschreibung hängt von der gewünschten Genauigkeit ab

5 2. Zufallsexperimente und Ereignisse Ein Experiment heißt Zufallsexperiment, wenn die Ergebnisse, die auftreten können, bekannt sind. Es ist jedoch nicht bekannt, welches Ergebnis tatsächlich als nächstes auftritt. Die Menge aller möglichen Ergebnisse ist der Stichprobenraum eilmengen heißen Ereignisse, einelementige Teilmengen heißen Elementarereignisse. kann diskret (abzählbar) oder kontinuierlich (überabzählbar) sein.

6 Zufallsexperimente und Ereignisse Würfeln Beispiel: Stichprobenraum Elementarereignis A B (eig.: 1 Auge etc.) Ereignis: C = ungerade Wird z. B. eine 1 gewürfelt, so sagt man, die Ereignisse A und C seien eingetreten. ist das unmögliche Ereignis. ist das sichere Ereignis.

7 Zufallsexperimente und Ereignisse Neuronale FeuerstatistikBeispiel: Stichprobenraum 0 Spikes, 1 Spike,..., 10 Spikes Elementarereignis A 3 Spikes Ereignis: B = {< 5 Spikes} Spiketrain Entspr. maximaler Feuerrate

8 3. Axiomatische Definition der Wahrscheinlichkeit (Kolmogorov 1933) Eine Funktion P, die jedem Ereignis eines Zufallsexperiment eine Zahl zuordnet, heißt Wahrscheinlichkeit, falls sie folgende Axiome erfüllt: 1.Für jedes Ereignis gilt 0 P(A) 1. 2.Es ist P( ) = 1 (sicheres Ereignis). 3.Für zwei Ereignisse A, B mit A B = (unverträgliche Ereignisse) gilt: P(A B) = P(A) + P(B).

9 Axiomatische Definition der Wahrscheinlichkeit 3. Für zwei Ereignisse A, B mit A B = (unverträgliche Ereignisse) gilt: P(A B) = P(A) + P(B). Würfeln Beispiel: A = B = P(A) = 1/6, P(B) = 1/6 Somit: P(A B) = P Aber: A = B = P(A) = 1/3, P(B) = 1/6 Daher: P(A B) 3/6, sondern: P(A B) = P({1,2}) = 1/3

10 4. Bestimmung von Wahrscheinlichkeiten Axiome von Kolmogorov legen die Wahrscheinlichkeiten noch nicht fest! Sie müssen definiert oder gemessen werden. Dieses Kapitel ist umfasst Mathematik und Empirie.

11 Bestimmung von Wahrscheinlichkeiten a) Mathematik; für endliche Stichprobenräume Ordne jedem Elementarereignis die gleiche Wahrscheinlichkeit zu (Laplace-Experiment) und wende Abzähltechniken an (Kombinatorik). Würfeln mit einem fairen Würfel Beispiel: P( ) = P( ) =... = P( ) = 1/6. -Wie kommt man zu der Zahl 1/6? P( ) = 1 (Axiom 2) und Axiom 3!

12 Bestimmung von Wahrscheinlichkeiten a) Mathematik; für endliche Stichprobenräume Ordne jedem Elementarereignis die gleiche Wahrscheinlichkeit zu (Laplace-Experiment) und wende Abzähltechniken an (Kombinatorik). Lotto (6 aus 49) Komplizierteres Beispiel: P(4 Richtige) = mit

13 Bestimmung von Wahrscheinlichkeiten b) Empirie; für diskrete Stichprobenräume Führe das Zufallsexperiment N-mal aus. Das Ereignis A trete dabei N A -mal auf. Eine Schätzung für die Wahrscheinlichkeit P(A) ist die relative Häufigkeit P(A) N A / N. Die Division durch N liefert dabei die Normierung: Es muss für Elementarereignisse B i gelten: P(B i ) = 1. i Die Schätzung wird für große N genau (Gesetz der großen Zahlen).

14 Bestimmung von Wahrscheinlichkeiten b) Empirie; für diskrete Stichprobenräume Neuronale Feuerstatistik Beispiel:

15 5. Wahrscheinlichkeitsverteilungen Für alle Elementarereignisse x nennt man die Funktion P(x) eine Wahrscheinlichkeitsverteilung (oder kurz Verteilung). Neuronale Feuerstatistik Beispiel: Verteilung der Anzahl von Spikes als Antwort auf einen bestimmten Reiz Zumeist: Umrechnung auf die Feuerrate r (# Spikes / s)

16 Wahrscheinlichkeitsverteilungen Poisson-VerteilungBeispiel: Betrachte ein Intervall (Zeitintervall, Raumbereich usw.). Wieviele Ereignisse treten in diesem Intervall auf? Es seien im Mittel Ereignisse. Poisson-Verteilung:

17 Poisson-Verteilung Eine Poisson-Verteilung ist dann zu erwarten, wenn die einzelnen Ereignisse unabhängig voneinander auftreten. Gehorchen neuronale Feuerereignisse einer Poisson-Verteilung? Feuerrate (?)

18 Poisson-Verteilung Poissonscher Spiketrain Test: Verteilung der Wartezeiten ist exponentiell; hier: Interspike-Intervalle { t Oft gute Näherung, aber nicht exakt erfüllt: z. B. Refraktärzeit

19 6. Bedingte Wahrscheinlichkeit Wahrscheinlichkeiten ändern sich, wenn sich der Stich- probenraum ändert. Dies ist i. a. der Fall, wenn wir mehr Wissen über ein System bekommen. Wir wollen eine bedingte Wahrscheinlichkeit P(A|B) A,B Ereignisse Wahrscheinlichkeit von A unter der Bedingung, dass B eingetreten ist einführen.

20 Bedingte Wahrscheinlichkeit Würfeln Beispiel: Schritt 1 A =, P(A) = 1/6 B =, P(B) = ½ P(A|B) = 1/3 Hier: P(A|B) = P(A)/P(B) Das ist aber noch nicht die endgültige Version, das Beispiel war zu simpel...

21 Bedingte Wahrscheinlichkeit Würfeln Beispiel: Schritt 2 A =, P(A) = 1/3 B =, P(B) = ½ P(A|B) = 1/3 (!) Wichtig ist nur die 1, also A B mit P(A B)=1/6 P(A|B) = P(A B)/P(B) Anstatt P(A|B) = P(A)/P(B):

22 Bedingte Wahrscheinlichkeit Neuronale Feuerstatistik Präsentiere verschiedene Reize A 1, A 2, A 3,... Die neuronale Feuerstatistik ändert sich (i. A. verschiedene mittlere Feuerraten, andere Verteilung) Wie groß ist die Wahrscheinlichkeit, als Antwort auf die Präsentation eines Reizes eine bestimmte Feuerrate r (oder eine bestimmte Anzahl n von Spikes) zu bekommen? Interpretiert als bedingte Wahrscheinlichkeit P(r|A 1 ), P(r|A 2 ), P(r|A 3 ),... bzw. P(n|A 1 ), P(n|A 2 ), P(n|A 3 ),...

23 7. Satz von Bayes Was ist der Zusammenhang zwischen P(A|B) und P(B|A)? P(A|B) = P(A B) /P(B) P(B|A) = P(B A) /P(A) Somit P(A|B) P(B) = P(B|A) P(A) oder Der Satz von Bayes hat sehr viele Anwendungen. Hier: statistische Signalverarbeitung

24 Satz von der totalen Wahrscheinlichkeit Benötigt für den Nenner Zerlege in disjunkte Teilmengen: = A 1, A 2, A 3,... mit A i A j = für alle i j. Dann gilt für ein beliebiges Ereignis B: P(B) = P(B|A 1 ) P(A 1 ) + P(B|A 2 ) P(A 2 ) +... Im Satz von Bayes:, wobei A eines der Ereignisse A i ist.

25 Anwendung auf neuronale Antworten Neuronale Feuerstatistik Verschiedene mögliche Reize A 1, A 2, A 3,... Wie groß ist die Wahrscheinlichkeit, als Antwort auf die Präsentation eines Reizes A i eine bestimmte Feuerrate r (oder eine bestimmte Anzahl n von Spikes) zu bekommen? Interpretiert als bedingte Wahrscheinlichkeit P(r|A 1 ), P(r|A 2 ), P(r|A 3 ),... bzw. P(n|A 1 ), P(n|A 2 ), P(n|A 3 ),... Jetzt: Wie groß ist – bei gegebener Antwort r bzw. n – die Wahrscheinlichkeit, dass der präsentierte Reiz der Reiz A i war? Interpretiert als bedingte Wahrscheinlichkeit P(A 1 |r), P(A 2 |r), P(A 3 |r),...

26 Rekonstruktion von Reizen Verschiedene mögliche Reize A 1, A 2, A 3,... Feuerstatistiken P(n|A 1 ), P(n|A 2 ), P(n|A 3 ),... Bestimme die Wahrscheinlichkeiten P(A 1 |n), P(A 2 |n), P(A 3 |n),... mit dem Satz von Bayes Gegeben: Ermittle eine neuronale Antwort n Rekonstruierter Reiz: Wähle den Reiz A i, für den die Wahrscheinlichkeit P(A i |n) maximal ist (Maximum-A- Posteriori-Schätzer). Rekonstruktion:

27 Unabhängige Ereignisse Mit Hilfe der bedingten Wahrscheinlichkeit lässt sich die Unabhängigkeit von Ereignissen definieren. Zwei Ereignisse A, B heißen unabhängig, wenn gilt: P(A|B) = P(A). Würfeln mit zwei Würfeln Beispiel: P(2 mit Würfel 1 | ungerade mit Würfel 2) = P(2 mit Würfel 1) = 1/6 Aus folgt: P(A B) = P(A) P(B) P(A|B) = P(A B)/P(B)

28 8. Multivariate Verteilungen Bislang war die Wahrscheinlichkeit P eine Funktion einer (Zufalls-)Variablen X: P(x). Jetzt: P(x 1, x 2,...): Multivariate Verteilungen. In einem Zufallsexperiment werden die Größen X 1, X 2,... gemessen; Messergebnis sei x 1, x 2,.... Dann nennt man die Funktion P(x 1, x 2,...) die Verbundwahrscheinlichkeit von X 1, X 2,... (Achtung: Verteilung ist doppelt besetzt...)

29 Multivariate Verteilungen Feuerstatistik zweier NeuronenBeispiel: Ergibt ein bivariate Verteilung P(n 1,n 2 ) bzw. P(r 1,r 2 ). Praktisches Problem: Es werden viel mehr Daten benötigt!

30 Multivariate Verteilungen Feuerstatistik zweier Neuronen Praktisches Problem: Es werden viel mehr Daten benötigt als bei einem Neuron! Lösung: Annahme der statistischen Unabhängigkeit: P(n 1,n 2 ) = P(n 1 ) P(n 2 ). Stimmt die Annahme? Natürlich nicht...


Herunterladen ppt "Christian Eurich Institut für Theoretische Neurophysik Einführung in die Wahrscheinlichkeitsrechnung."

Ähnliche Präsentationen


Google-Anzeigen