Information und Fitness

Slides:



Advertisements
Ähnliche Präsentationen
Memetische Algorithmen …der Versuch einer Einordnung
Advertisements

Perceptrons and the perceptron learning rule
Zugehörigkeitsfunktion (Wahrheitsfunktion) m
TECHNISCHE UNIVERSITÄT DARMSTADT Naive Bayes for Ranking
Beschränktes Wachstum
Information - syntaktisch
Seminar Stochastik im WS 02/03
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Vorgehensmodelle – Prototyping
Genetische Algorithmen
Genetische Algorithmen
Entscheidungstheorien
Entscheidungstheorie für Unentschlossene Indecision Theory.
Gliederung Definition des Wahrscheinlichkeitsbegriffes
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (02 – Funktionenklassen) Prof. Dr. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (02 – Funktionenklassen) Tobias Lauer.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (02 – Funktionenklassen) Prof. Dr. Th. Ottmann.
Genetische Algorithmen
Computerkurs: Quantitative Auswertung biochemischer Experimente Guten Morgen.
Konfidenzintervalle für Parameter
6. Chaos-theoetische Konjunkturerklärung
2. Univariate Regressionsanalyse 2.1 Das statische Regressionsmodell
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Materialien zu Übung 9 Bälle in Körbe Ranged.
Relevanz Ranking Bisher: Sind wir davon ausgegangen, dass das Ergebnis des Rankings des statistischen Verfahrens in den Index geschrieben wird und dem.
Nachholung der Vorlesung vom Freitag
Konfidenzintervalle Intervallschätzung
Ab nächster Woche wird die Übungsgruppe Gruppe 2: Henrike Berg Di SR 222 wegen Personalmangel eingestellt.
Die Student- oder t-Verteilung
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Konfidenzintervalle Intervallschätzung Jeder Beobachtung wird ein Intervall C( ) der reellen Zahlen zugeordnet Niveau Dabei ist die Wahrscheinlichkeit,
Kolmogorov-Smirnov-Test. A. N. Kolmogorov Geboren in Tambov, Russland. Begründer der modernen Wahrscheinlichkeitstheorie.
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
Kombination von Tröpfchen- und Schalenmodell
Tutorium
Tutorium
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
Wiederholung und Beispiele
Gliederung Motivation und Ziele Grundlagen der Rotman Linsen
Wahrscheinlichkeitsrechnung
Eigenschaften der OLS-Schätzer
Einfache Regressionsgleichung
Multikollinearität Wann spricht man von Multikollinearität?
Wiederholung: Einfache Regressionsgleichung
Deutsch als Zweitsprache: Experimentelle Methoden WS 2013/2014
Autoren: Ingo Paenke, Bernhard Sendhoff, Jon Rowe,
Information und Kommunikation
Ausgleichungsrechnung I
Ausgleichungsrechnung II
Informationsbasierte Interaktion information II. Struktur 1.Rekurs Daten Mathematical Theory of Communication (MTC) 2.Reichweite der MTC 3.Hauptteil Interaktion.
Regionalisierte Variablen und Kriging
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Information und Kommunikation
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Die Entropie Maßzahl für die Wahrscheinlichkeit der Verteilung mikroskopischer Zustände.
Exponentialfunktionen zu unterschiedlichen Basen
Fragen und Einwände hinsichtlich der Möglichkeit einer Schöpfungsforschung Thomas Waschke
Theorie psychometrischer Tests, II
Lernmodelle und Experimentelle Untersuchungen
Kopfübungen BORG Schoren KÜ 3
Einführung zur Fehlerrechnung
ANN - Simulator Rainer Trummer Ferdinand Schober Christian Spielberger.
Entscheidungstheorie für Unentschlossene Indecision Theory.
Die Binomialverteilung
Information - syntaktisch
Der Wiener Prozess und seltene Ereignisse
Spärliche Kodierung von Videos natürlicher Szenen Vortragender: Christian Fischer.
Eidgenössisches Departement für Wirtschaft, Bildung und Forschung WBF Agroscope I gutes Essen, gesunde Umwelt 3. Agroscope Nachhaltigkeitstagung.
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
 Präsentation transkript:

Information und Fitness Der evolutionsbiologische Wert von Information

Ansätze zur Quantifizierung von Information Informationstheoretische Interpretation (Shannon) Anwendung in „technisch“ orientierten Wissenschaften Stochastische Interpretation Anwendung eher in „statistisch“ orientierten Wissenschaften

Information als Entropie Shannons berühmte Gleichung erlaubt eine Quantifizierung von Information, aber keine Qualifizierung i.S. einer Gewichtung einzelner bits.

Spieltheoretische Deutung des Informationsgehaltes The value of information associated with a cue or signal X is defined as the difference between the maximum expected payoff or fitness that a decision-maker can obtain by conditioning on X and the maximum payoff that could be obtained without conditioning on X. Lässt Aussagen über den (biologischen) Wert einer Information zu, erlaubt jedoch keine objektive Quantifizierung etwa anhand von bits.

Beispiel I (Bergstrom & Lachmann) Phenotype 1 Phenotype 2 Environment 1 w1 Environment 2 w2 Environment 1 tritt auf mit Wahrscheinlichkeit p1 Environment 2 tritt auf mit p2 = 1 - p1 maximale Fitness über eine Generation: max[p1w1,p2w2]

Beispiel 1 Es wird aber nach „Langzeitfitness“ selektiert, auf lange Sicht tritt dabei Environment 1 N·p1 auf, analog Environment 2. Die Wachstumsrate über N Generationen, wobei sich ein Individuum mit der Wahrscheinlichkeit x zum Phenotype 1 entwickelt, kann folgendermaßen ausgedrückt werden:

Maximierung des Logarithmus Beispiel 2 Maximierung des Logarithmus N(p1log(w1x)+p2log(w2(1-x))) führt zu p1/x = p2/(1-x) oder x = p1 zu erwartendes logarithmisches Wachstum p1log(w1p1)+p2log(w2p2)

Annahme: sichere Vorhersage über den Umweltzustand sei möglich. Beispiel 1 Annahme: sichere Vorhersage über den Umweltzustand sei möglich. Individuen könnten kurzfristig Fitness p1w1+p2w2 erreichen. Wert dieser Information p1w1+p2w2 - max[p1w1,p2w2] = min [p1w1,p2w2 ] The value of information associated with a cue or signal X is defined as the difference between the maximum expected payoff or fitness that a decision-maker can obtain by conditioning on X and the maximum payoff that could be obtained without conditioning on X.

Langzeitfitness p1log(w1p1)+p2log(w2p2) Beispiel 1 Langzeitfitness p1log(w1p1)+p2log(w2p2) bei sicherer Vorhersage p1log w1+p2log w2 Die Differenz [ p1log w1+p2log w2)] - [p1log(w1p1)+p2log(w2p2)] = p1log p1 + p2log p2 entspricht der Shannon-Entropie der Umwelt!

Beispiel 2 (Taylor, Tishby & Bialek) Nicht nur äußere, sondern auch innere Faktoren bestimmen die Fitness eines Organismus. Im einfachsten Fall kann man eine „äußere“ Variable (s) annehmen, die den wichtigsten Nährstoff eines Bakteriums repräsentiert. Als „innere“ Variable fungiert (g), die etwa die Anzahl der Gene beschreibt. Die Fitness des Bakteriums kann dann durch die Funktion beschrieben werden.

Wachstumsrate von E. coli als Funktion der Lactosekonzentration Beispiel 2 Wachstumsrate von E. coli als Funktion der Lactosekonzentration und der Genexprimierung von lacZ.. s = 1 entspricht der Hälfte des maximalen Selektionsvorteils, g = 1 der maximalen Kapazität. (Experiment von Dekel & Alon)

Die Anpassung an die Umwelt erfolgt nie perfekt. Beispiel 2 Die Anpassung an die Umwelt erfolgt nie perfekt. Dennoch bezieht sich die Genexprimierung immer in gewisser Weise auf den jeweiligen Zustand der Umwelt. Die Varianz der Phänotypen kann als aufgefasst werden, die abhängige Verteilung von und als

Die Information, die über enthält, beträgt Beispiel 2 Die Information, die über enthält, beträgt

wenn man die Verteilung zugrunde legt, ist Beispiel 2 Die durchschnittliche Fitness, die ein Organismus auf lange Sicht erlangt, wenn man die Verteilung zugrunde legt, ist

Die eingezeichnete Kurve Beispiel 2 Die eingezeichnete Kurve von trennt den möglichen Bereich der „Fitness- Ebene“ vom unmöglichen (maximal 1.6% Zuwachs). Ein signifikanter Selektionsvorteil von 1% l ässt sich schon durch Mechanismen erreichen, die fast keine Information über die Umwelt enthalten, aber zur Vielfalt beitragen. Berechnung auf Basis von Experimentaldaten von E. coli bei Umwelt P(s) ∝ exp(−2s).

Beispiel 2 Biologische Relevanz Selektionsvorteil von 1 % für lediglich varianzfördernde Mechanismen Leichter Vorteil für Genotypen mit mehr als einem bit gegenüber Artgenossen Es wird nach Fitness, die direkt von der Informationsmenge abhängt, selektiert Experimentell nur 10% Vorteil bei unbegrenzter Lactose gegenüber Abstinenz

Minimierung von für einen bestimmten Wert von führt zu Beispiel 2 Minimierung von für einen bestimmten Wert von führt zu als Lagrange-Faktor zur Definierung eines bestimmten Fitnesswertes. ->Boltzmann dient der Normierung der Verteilungen Für große nähert sich die Verteilung der Expresionslevels dem Optimum , die Form des Peaks entspricht einer Gauss´schen Glocke, deren Weite umgekehrt proportional zu ist.

Berechnung der Information und mittleren Fitness Beispiel 2 Berechnung der Information und mittleren Fitness von der mittleren Fitness unabhängige Konstante größtmögliche durch maximale Information zu erreichende Fitness durch den Organismus kontrollierte Gene bei niedriger Fitness relevant

Anwendungen Experimentelle Bestimmung der Parameter Ermittlung der Fitnessfunktionen bestimmter Organismen Transfer zu höheren Lebewesen Parallelen zu den Neurowissenschaften Neue Deutung der Evolutionstheorie

Grenzen der Modelle ...

Quellen Bergstrom, C.T., and Lachmann, M., (2004) Shannon information and biological fitness. In Information Theory Workshop. 50 - 54. IEEE. Cover, T.M., and Thomas, J.A., (1991). Elements of information Theory. New York: Wiley. Taylor, S.F., Tishby, N., and Bialek, W., (2007). Information and fitness. arXiv.org: 07124382[q-bio.PE]