Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Das Gehirn als Computer - Der Computer als Gehirn

Ähnliche Präsentationen


Präsentation zum Thema: "Das Gehirn als Computer - Der Computer als Gehirn"—  Präsentation transkript:

1 Das Gehirn als Computer - Der Computer als Gehirn
Fachvortrag Dipl. Inf. Ulrich Dinger

2 Ursprünglicher Themenvorschlag
Ein Ziel der Wissenschaft ist das Verständnis der Funktionsweise des menschlichen Körpers im Allgemeinen und des Gehirns im Speziellen. Immer neue Ergebnisse aus den Bereichen der Psychologie und der Neurobiologie legen den Schluss nahe, dass das Gehirn wie ein komplexer Computer arbeitet und dementsprechend auch nachgebildet werden kann. Der Vortrag soll zum einen eine Übersicht über moderne bild gebende Verfahren liefern, die es mittels Computerunterstützung erst ermöglichten, diese Erkenntnisse zu erlangen. Zum anderen sollen Forschungsprojekte vorgestellt werden, die diese Erkenntnisse nutzen, um Teile des Gehirns nachzubilden und damit die Grundlagen dafür zu schaffen, den Menschheitstraum einer künstlichen Intelligenz zu realisieren.

3 Bildungsweg/Beruflicher Werdegang
10/1999 – 11/2004 Studium der Informatik an der TUD; Diplomarbeit bei der Siemens AG in München 01/2005 – 06/2009 Promotion im Fach Informatik an der TUD/ Siemens AG (München und Erlangen), Mitarbeit an EU- Projekt sowie verschiedenen Projekten in der Wirtschaft 10/2006 – 04/2007 Praktikum bei Siemens Corporate Research in Princeton/NJ (USA) 05/2007 – heute Selbständige Mitarbeit bei Siemens Building Technologies in München

4 Einleitung „Schon lange ist bekannt, dass man Elektronenhirne nicht nur bauen, sondern auch erziehen muß. Das Schicksal eines Elekronenhirns ist schwer. Pausenlose Arbeit, komplizierte Berechnungen, Brutalität und gemeine Witze von Seiten der Bedienung – alledem ist ein in seiner Beschaffenheit so überaus empfindlicher Apparat ausgesetzt. Was Wunder, daß es zu Zusammenbrüchen, zu Kurzschlüssen kommt, die häufig in selbstmörderischer Absicht unternommen werden. …“ Stanislav Lem: „Sterntagebücher, Elfte Reise“, 1961

5 Das Gehirn als Computer – Der Computer als Gehirn Inhalt
Überblick über die Funktionsweise des Gehirns (Reverse-Engineering) Die Informatik als Hilfsmittel zum Erlangen der Informationen Die Informatik als Mittel zum Schaffen künstlicher Intelligenz (Forward-Engineering) Hybride Ansätze Philosophie Sind wir selbst nur simuliert? Gibt es denkende/fühlende Maschine? Kann man töten? Bekommen Sie Menschenrechte? Wozu bauen? Theologie Dürfen wir „Gott“ spielen? Gibt es eine Seele? Informatik Entwicklung technischer Hilfsmittel zur Analyse Nutzung der gewonnenen Informationen Zur Realisierung. Ethik Dürfen wir (u.U. grausame) Versuche an Menschen und Tieren vornehmen, um Wissen zu erlangen? Philosophie gibt es denkende/fühlende Maschinen, bekommen Sie „Menschenrechte“, … Ethik dürfen wir Tiere/Menschen quälen, um Wissen zu erlangen Theologie dürfen wir Gott spielen Neurobiologie Funktionsweise des Gehirns begreifen (white box) Phsychologie Funktionsweise Gehirn (black box)/Pattern oriernted/reverse engineering Informatik Neuroinformatik Funktionsweise des Gehirns nachbauen Bildgebend Unterstützung der Neurobiologie Neurowissenschaften Erforschen der Funktionsweise von Nervensystemen

6 Definition „Computer“
Ein Computer (wörtlich: "Rechner") ist ein programmierbares Gerät zum Ausführen von Berechnungen und logischen Entscheidungen und zur Verarbeitung von Daten.

7 Überblick über die Funktionsweise des Gehirns (Reverse-Engineering)

8 Reverse-Engineering Neurowissenschaften = biologische, physikalische, medizinische und psychologische Wissenschaftsbereiche zur Untersuchung von Nervensystemen Wissenschaftliche Untersuchung von Begriffen wie Bewusstsein, Gedächtnis, Seele, Geist und Emotionen auf verschiedenen Hierarchieebenen (mikro- und makroskopisch) Neurobiologie: molekulare und zellbiologische Grundlagen Neurophysiologie: Untersuchung der „Sprache der Nerven“ (neuronale Aktivität) Kognitive Neurowissenschaft: Untersuchung höhere Leistungen des Gehirns Klinisch-medizinisch: Diagnose und Therapie der Erkrankungen des Gehirns Die Neurobiologie beschäftigt sich im Wesentlichen mit den molekularen und zellbiologischen Grundlagen der Neurowissenschaften. Disziplinen, die auf dieser Ebene arbeiten, sind die neurowissenschaftlichen Zweige von Biochemie, Molekularbiologie, Genetik und Epigenetik, aber auch der Zellbiologie, der Histologie und Anatomie sowie der Entwicklungsneurobiologie. An zentraler Stelle der Neurowissenschaften steht die Neurophysiologie. Obwohl die Physiologie normalerweise eine Unterdisziplin der Biologie ist, nimmt sie in den Neurowissenschaften insofern eine besondere Rolle ein, als neuronale Aktivität und somit die „Sprache der Nerven“ in den Bereich der Neurophysiologie fällt. Die Neurophysiologie lässt sich untergliedern in die Elektrophysiologie und die Sinnesphysiologie, ist aber auch eng verwandt mit der Neuropharmakologie, Neuroendokrinologie und Toxikologie. Einen zentralen Platz auf einer höheren Ebene nimmt die Kognitive Neurowissenschaft ein. Sie befasst sich mit den neuronalen Mechanismen, die kognitiven und psychischen Funktionen zugrundeliegen. Sie interessiert sich also vor allem für höhere Leistungen des Gehirns. Die klinisch-medizinischen Fächer beschäftigen sich mit Pathogenese, Diagnose und Therapie der Erkrankungen des Gehirns und umfassen die Neurologie, Neuropathologie, Neuroradiologie, und Neurochirurgie sowie die Biologische Psychiatrie und Klinische Neuropsychologie.

9 Technische Daten des Menschen
Aufbau: Organisch, kohlenstoff-basiert, 50-60% Wasser Optimale (innere) Betriebstemperatur: 37°C Durchschnittliche Größe (w/m): / cm Durchschnittliche Lebenserwartung (w/m): 71,7/66,7 Jahre Energieverbrauch pro Tag (w/m): 2300/2900 kcal (2,67/3,37 kWh) Wirkungsgrad: 40-60% Energieversorgung: Aufnahmen von Sauerstoff, Wasser und pflanzlichen und tierischen Nährstoffen; Verdauungsorgane; Transport im Blut Wirkungsgrad: Rest als Abwärme = W Umrechnung: Enerigebedarf: Energieverbrauch Abhängig von Alter und Tätigkeit (Richtwert für Jährige) Lebenserwartung D/1979

10 Das EVA-Prinzip Eingabe Verarbeitung Ausgabe Zentralprozessor Speicher
Eingabegeräte = Wahrnehmung Visuell Auditiv Olfaktorisch Gustatorisch Haptisch Rechner Ausgabegeräte Gliedmaßen/Gesten Stimme Gerüche ... Zentralprozessor Speicher Olfaktorisch = Riechen Gustatorisch = Schmecken Temperatursinn, Thermorezeption Schmerzempfindung, Nozizeption Vestibulärersinn, Gleichgewichtssinn Körperempfindung (oder Tiefensensibilität), Propriozeption Gleichgewichtssinn Kinästhetische Wahrnehmung: So merkt der Körper, wie seine Glieder zueinander stehen als Rückkopplung auf Bewegungen Trigeminale Wahrnehmung: Der Gesichtsnerv (Trigeminus) übermittelt den Tastsinn des Gesichts, Geschmack und Geruch. Vermutlich steht er für das Schmecken "scharfer" Speisen

11 Die Zentraleinheit Masse ~ 1350g; 20% Energie des Menschen, auch im Schlaf Geringe Speicherkapazität für Energie Teile Hirnstamm: verschaltet und verarbeitet eingehende Sinneseindrücke und ausgehende motorische Informationen; Reflexe + automatische Vorgänge Zwischenhirn: Mittler sensibler und motorischer Signale zum und vom Großhirn, Bindeglied zwischen Hormon- und Nervensystem, beteiligt an Schlaf- und Wachsteuerung Kleinhirn: Gleichgewicht und Bewegungen, teilweise Spracherwerb und soziales Lernen Großhirn: Informationsverarbeitung, Abstimmung Großhirn: primäre felder vs. assoziative felder Zwischenhirn entspricht in etwa chipsatz eines motherboards (north und southbridge)

12 Die Grundbausteine Kleinste Einheit = Neuron
Auf Erregungsleitung spezialisierte Zellen ca Neuronen, verbunden durch 1014 Synapsen Geschwindigkeit der Informationsübertragung: ca. 120m pro Sekunde Neurotransmitter = chemische Botenstoffe 100 milliarden = 10^11 100 billionen = 10^14 1000 verknüpfungen pro neuron; in 4 schritten zu jedem anderen. Stark abweichend Nervenleitgeschwindigkeit Zellkörper = Soma => Produziert die Stoffe, die für die Funktion der Zelle notwendig sind (Neurotransmitter) Dendriten = Verästelungen des Zellkörpers; Kontakt zu anderen Nervenzellen herstellen und von diesen Erregungen empfangen Axon = ist zuständig für die Übertragung des Aktionspotentials einer Nervenzelle und leitet dieses zu den Synapsen und damit an andere Nervenzellen weiter. Des Weiteren wandern die Stoffe, die im Soma gebildet werden (Neurotransmitter, Enzyme), durch das Axon zur Synapse, wo sie die ihnen zufallenden Aufgaben erfüllen. Ein Rezeptor ist hier ein für bestimmte Reize empfindliches Zielmolekül einer Zelle, das eine bestimmte chemische Struktur aufweist und damit für einen anderen Stoff (Botenstoff, Transmitter) reaktionsfreudig ist oder nicht. Die Neurotransmitter binden nach dem Schlüssel-Schloss-Prinzip, das heißt, ein bestimmter Rezeptor ist immer nur für einen bestimmten Neurotransmitter zuständig. Passt die Codierung nicht oder sind alle verfügbaren Rezeptoren belegt oder blockiert, kann der Neurotransmitter nicht anbinden und auch keine Information auf eine benachbarte Zelle übertragen  Mutti Motiviert sind künstliche Neuronen durch die Nervenzellen der Säugetiere, die auf die Aufnahme und Verarbeitung von Signalen spezialisiert sind. Über Synapsen werden Signale elektrisch oder chemisch an andere Nervenzellen oder Effektorzellen (etwa zur Muskelkontraktion) weitergeleitet. Eine Nervenzelle besteht aus dem Zellkörper, Axon und den Dendriten. Dendriten sind kurze Zellfortsätze, die stark verzweigt für die Aufnahme von Signalen anderer Nervenzellen oder Sinneszellen sorgen. Das Axon funktioniert als Signalausgang der Zelle und kann eine Länge von bis zu 1 m erreichen. Der Übergang der Signale erfolgt an den Synapsen, welche erregend oder hemmend wirken können. Die Dendriten der Nervenzelle leiten die eingehenden elektrischen Erregungen an den Zellkörper weiter. Erreicht die Erregung einen gewissen Grenzwert und übersteigt ihn, entlädt sich die Spannung und pflanzt sich über das Axon fort (Alles-oder-nichts-Gesetz). Die Verschaltung dieser Nervenzellen bildet die Grundlage für die geistige Leistung des Gehirns. Das Zentralnervensystem des Menschen besteht nach Schätzungen aus 1010 bis 1012 Nervenzellen, die durchschnittlich Verbindungen besitzen – das menschliche Gehirn kann also mehr als 1014 Verbindungen besitzen[2][3]. Das Aktionspotential im Axon kann sich mit einer Geschwindigkeit bis zu 100 m/s fortpflanzen. Im Vergleich zu Logikgattern zeigt sich auch die Effizienz von Neuronen. Während Gatter im Nanosekunden-Bereich (10-9) schalten, unter einem Energieverbrauch von 10-6 Joule (Daten von 1991), reagieren Nervenzellen im Millisekunden-Bereich (10-3) und verbrauchen lediglich eine Energie von Joule. Trotz der augenscheinlich geringeren Werte in der Verarbeitung durch Nervenzellen können rechnergestützte Systeme nicht an die Fähigkeiten biologischer Systeme heranreichen. Die Leistung neuronaler Netze wird ebenfalls durch die 100-Schritt-Regel demonstriert: Die visuelle Erkennung beim Menschen findet in maximal 100 parallelen Verarbeitungsschritten statt – die meist sequentiell arbeitenden Rechner erbringen keine vergleichbare Leistung. Die Vorteile und Eigenschaften von Nervenzellen motivieren das Modell der künstlichen Neuronen. Viele Modelle und Algorithmen zu künstlichen neuronalen Netzen entbehren dennoch einer direkt plausiblen, biologischen Motivierung. Dort findet sich diese nur im Grundgedanken der abstrakten Modellierung der Nervenzelle. 5-100µm

13 Speicher Nicht getrennt wie bei von Neumann-Architektur; Verarbeitung und Speicher vermischt Schätzungen: 100 Terrabyte - > 1 Petabyte Lernen = verknüpfen von Neuronen; Änderung der Aktionspotentiale Schlafen = Verfestigung/Konsolidierung von Gedächtnisinhalten Sensorisch – ms bis s Kurzzeitgedächtnis – minuten Langzeit – jahre Deklarativ = tatsachen und ereignisse semantisch = Weltwissen, unabhängig von personen episodisch = erfahrungen Prozedural = Fertigkeiten, Erwartungen, Verhaltensweisen Verarbeitung von Informationen und deren Abspeicherung im Gehirn in denselben neuronalen Netzwerken stattfinden -> kann nicht gleichzeitig geschehen  muss in Pause passieren = Schlaf LERNEN Der Gedächtnisinhalt ist in den Verbindungen der Nervenzellen, den Synapsen, niedergelegt, genauer in der synaptischen Effizienz neuronaler Netze. Zwischen den ungefähr 100 Milliarden Nervenzellen bestehen schätzungsweise 100 bis 500 Billionen Synapsen. Entscheidend ist hierbei die synaptische Plastizität: Viele Synapsen sind nicht statisch, sondern können neu entstehen oder untergehen, und sie können die Effizienz der Übertragung auf das andere Neuron für sich und benachbarte Synapsen verändern. Donald O. Hebb postulierte als erster, dass Synapsen durch ihre eigene Aktivität ihre Übertragungsstärke ändern können. Die von ihm in der sogenannten Hebbschen Lernregel aufgestellte Hypothese konnte experimentell bestätigt werden. Nach Hebb wird eine Synapse, die durch gleichzeitige Aktivität im prä- und postsynaptischen Teil stärker wird, als Hebb-Synapse bezeichnet. Ein solches Verhalten einer Synapse wird in der Neurophysiologie auch als homosynaptische Langzeitpotenzierung bezeichnet. Es gibt jedoch eine Vielzahl anderer Formen der synaptischen Plastizität. Sie unterscheiden sich vor allem in ihrer Richtung (Potenzierung versus Depression, d. h. Verstärkung versus Abschwächung), in ihrer Dauer (Kurzzeit- versus Langzeitplastizität), in ihrer synaptischen Spezifität (homo- versus heterosynaptisch) sowie den molekularen Mechanismen ihrer Entstehung und Aufrechterhaltung. Es wurden verschiedene Signalkaskaden beschrieben, die ihren Ausgang in der Erregung einer Zelle durch eine bestimmte Synapse und ein daraufhin ausgelöstes Aktionspotenzial nehmen und zu kurz- wie auch langfristiger Veränderung der synaptischen Effizienz führen. Solche Mechanismen umfassen kurzfristig die Phosphorylierung von Rezeptormolekülen, die Ausschüttung von retrograden Botenstoffen zum präsynaptischen Axon, für die langfristige Wirkung insbesondere aber die Aktivierung von Transkriptionsfaktoren, die die Proteinbiosynthese regulieren und zur vermehrten Synthese von Rezeptormolekülen, Enzymen für Transmitteraufbau und -abbau und Strukturproteinen führen. Durch die Aktivierung von synaptischen Verbindungen kann es also zu biochemisch fassbaren, langfristig andauernden strukturellen Veränderungen in den Verbindungen der Neuronen kommen. Gedächtnisbildung [Bearbeiten] Bei der Wahrnehmung der Realität wird ein Gedächtnis (Wirklichkeit, mehrere Begriffssysteme) gebildet, bestehend aus einer Menge von Begriffen (bedeutungsvollen Vorstellungen von Objekten der realen Welt) einschließlich der Menge der Gedankenverknüpfungen (Beziehungen, Relationen, Assoziationen) zwischen diesen Begriffen und speziellen „Verwaltungsprogrammen“ (Erinnerungsfunktionen), die dem Menschen einen Zugriff auf die Begriffe (Fähigkeit, sich zu erinnern) ermöglichen. Vom Beginn unseres individuellen Lebens wird im Gedächtnis ein objektbezogenes Begriffssystem erstellt, in dem jedes Objekt durch einen eindeutigen Begriff repräsentiert ist. Wir machen uns ein eigenes Abbild (eine persönliche Vorstellung) von einem Objekt mit seinen Eigenschaften und Methoden einschließlich Relationen zwischen den Objekten. Somit wird im Gehirn ein individuelles „objektorientiertes Modell“ der realen Welt gebildet. Parallel zum objektbezogenen Begriffssystem wird im Gedächtnis ein codebezogenes Begriffssystem aufgebaut. Üblicherweise eignen wir uns durch das Lernen mindestens eine natürliche Sprache an. Bei diesem Lernprozess wird ein Abbild des Wortschatzes, ein Vorrat der Wörterbedeutungen (wörtervertretendes Begriffssystem, codebezogenes Begriffssystem) gebildet. Erst dieses System erlaubt uns auf unsere Gedanken (Begriffe, Informationsinhalte, Wörterinhalte) zuzugreifen, um mit Hilfe der materiellen Träger (Lautfolgen, Codes, Wörter) die immateriellen Begriffe zu übermitteln. Das codebezogene Begriffssystem steht in einer n-zu-eins-Relation zum objektbezogenen Begriffssystem. Das heißt ein objektvertretender Begriff kann durch eine oder mehrere Wortbedeutungen repräsentiert werden. Ein Beispiel dafür ist eine zwei-zu-eins-Beziehung der Synonyme Krankheit und Erkrankung zum Objekt Krankheit/Erkrankung. Anders ausgedrückt: Ein geistiger Stellvertreter des Wortes Krankheit sowie ein geistiger Stellvertreter des Wortes Erkrankung sind einem geistigen Stellvertreter des Objektes Krankheit/Erkrankung zugeordnet. Im Gedächtnis gibt es keine Redundanz. Jeder Begriff aus unserem Gedankenvorrat repräsentiert eindeutig in einer eins-zu-eins-Relation einen einzelnen Code (z. B. Wort) oder ein einzelnes Objekt (z. B. Gegenstand).

14 Leistungsfähigkeit 1013 bis 1016 analoge Rechenoperationen pro Sekunde
etwa 15 bis 20 Watt an chemischer Leistung Erreicht durch massiv parallele Ausführung + Filterung Viel unbewußt, bevor bewußter Akt Sehen und Wahrnehmen voneinander getrennt Auge: 25 Bilder/sek * 24bit * 2MPixel ~ 150MB/s Es kommt bewußt an: Würfel Das macht unsere Leistungsfähigkeit aus  macht uns aber auch anfällig für Irreführung Gehirn sucht wahrscheinlichste Sache raus Bei Würfel ist es gleichwahrscheinlich, deshlab wechselt es

15 Höherwertige Funktionen
Struktur des Nervensystems unterliegt genetischer Kontrolle  „Hardware-Entwicklung“ durch natürliche Selektion Gefühle Belohnung (das will ich haben; ich will mich wohlfühlen) + Motivation, um etwas zu ändern (Missstand beseitigen) Mitgefühl/Empathie Glauben an Gott/Religion  Nebenprodukt der Evolution? Probleme: Neurologische Ursache oder falsche „Programmierung“  Reformation des Strafgesetzes Entwickelt durch Natürliche Selektion (Darwin) : überleben des Geeignetesten Gefühle: Steuerung Mitgefühl/Empathie: vorausberechnung (wird er mich hauen oder nicht) An Gott glauben: Weitergabe von Wissen; Um als Kind zu überleben, macht es Sinn, bestimmte Anweisungen von Eltern/Erwachsenen zu übernehmen, ohne Nachzuprüfen  Beeren essen Mensch erklärt sich Phänomene, die er nicht versteht mit höherer Macht  kindliche Indoktrination  wird über Generationen weitergegeben Bei Problemen: Neurologische Ursache (Hardware-Defekt) oder falsche Programmierung im Kindesalter -> Reformation des Strafgesetzes???

16 Manifest der Neurowissenschaftler
Grundsätzlich setzt die neurobiologische Untersuchung des Gehirns auf drei verschiedenen Ebenen an. Die oberste erklärt die Funktion größerer Hirnareale, beispielsweise spezielle Aufgaben verschiedener Gebiete der Großhirnrinde, der Amygdala oder der Basalganglien. Die mittlere Ebene beschreibt das Geschehen innerhalb von Verbänden von hunderten oder tausenden Zellen. Und die unterste Ebene umfasst die Vorgänge auf dem Niveau einzelner Zellen und Moleküle. Bedeutende Fortschritte bei der Erforschung des Gehirns haben wir bislang nur auf der obersten und der untersten Ebene erzielen können, nicht aber auf der mittleren. Das aber bedeutet, dass wir kein Modell besitzen, das die Funktion des Gehirns in abstrahierter Form beschreibt.

17 Die Informatik als Hilfsmittel zum Erlangen der Informationen

18 Geschichte der Mensch-/Hirnforschung
Anfangs: Sezieren von Menschen + Tieren; Seit wann? Herophilos (ca. 300 v. Chr.) Bestimmte Verbindungen trennen  sehen was passiert Loch in Kopf, Drähte, Strom messen Versuche an Mensch und Tier; Heute immer noch

19 Wissenserlangung durch die Informatik
Nichtinvasive Techniken; Bildgebende Verfahren Erstellung von Tomographien (Schnittbildern) des menschlichen Körpers Nutzung verschiedener physikalischer Effekte Computer zur Verarbeitung und Visualisierung der Daten Typen Röntgencomputertomographie Kernspin-Tomographie/ Magnetresonanztomographie Positronen-Emissions-Tomographie (EEG = Hirnstrommessung)

20 Röntgencomputertomographie
Grundlage: Festes Gewebe wie Knochen weist eine deutlich höhere Absorption auf als weiches Gewebe Funktionsweise: Strahlungsdetektoren wandeln Röntgenquant direkt in einen elektrischen Impuls um; Detektoren im Bereich der Elementarladungen Rekonstruktion: Bekannt: Entfernungen, Winkel und Anfangsintensitäten Gemessen: Transmission Berechnungen (Fourier) Vorteile sehr hohe Detailauflösung Nachteile Belastung durch Röntgenstrahlung Ab 1972 Transmission: Abschwächung/Dämpfung Algebraische Rekonstruktion : Dass das Gleichungs-System nur dann eindeutig lösbar ist, wenn alle Zeilen linear unabhängig sind. Dies ist in der Praxis nicht garantierbar. Iterative Approximation : Man setzt also für den gesuchten Wert einen willkürlich gewählten Wert fest (Prädiktor), berechnet die daraus resultierenden Unstimmigkeiten in dem oben erwähnten Gleichungssystem und erhält somit einen Korrekturfaktor (Korrektor), mit dem der Prädiktor verbessert wird. Für eine befriedigende Abschätzung der tatsächlichen Absorptionskoeffizienten sind zwischen 10 und 100 Iterationen nötig, deren Aufwand quadratisch mit der Anzahl der Bildpunkte steigt. Für den Routineeinsatz ist dieses Verfahren also nicht geeignet. Fourier-Projektion : Die zweidimensionale Fourier-Transformation ist die am leichtesten zu realisierende Rekonstruktionsmethode, da hierfür schnelle Algorithmen existieren (die Fast Fourier Transformation (FFT)), die direkt in Hardware implementiert werden. Bildrauschen Quantenrauschen; Streustrahlung; Röntgenröhre selbst dazu bei, deren Quanten meist nicht exakt monochromatisch sind Artefakte Partialvolumina ; Aliasing (weiche übergänge); Ringartefakte (unzureichende Kalibrierung); Metallartefakte ; Überschreitung des Dynamikbereiches der Detektoren

21 Kernspin-Tomographie (MRT)
Grundlage: Atomkern = rotierender Körper mit magnetischem Moment Funktionsweise: Aufbau homogenes Magentfeld; Mit 3 anderen Feldern überlagert; die schnell auf- und abgebaut Rekonstruktion: Umrechnung der Frequenz- und Phasencodierung in Bild (Fourier) Vorteile Wie CT + besserer Weichteilkontrast Keine Strahlenbelastung Auflösung bis 100 µm, Nervenzellen Neue Entwicklungen  Echtzeit Nachteile Höherer Aufwand (Kalibration der Hardware) = teuer Metallteile gefährlich Ab 1980 Einige Teilchen im zu untersuchenden Gewebe besitzen einen Eigendrehimpuls (Spin) und sind dadurch magnetisch. Diese Atomkerne werden durch Anlegen eines starken statischen Magnetfeldes ausgerichtet. Durch ein zusätzliches hochfrequentes Wechselfeld lassen sich die zunächst ausgerichteten Atomkerne aus der Richtung des statischen Feldes auslenken (kippen). Als Folge der Auslenkung beginnen die Kerne, um die ursprüngliche Feldrichtung zu präzedieren, d. h. die Achse der Spins rotiert um die Feldrichtung des statischen Magnetfelds. Diese Präzessionsbewegung wird von allen angeregten Kernspins mit gleicher Frequenz ausgeführt und resultiert in einer rotierenden Magnetisierung, die über den induzierten Strom in einer Spule gemessen werden kann. Nach Abschalten des hochfrequenten Wechselfeldes nimmt diese Magnetisierung mit einer Abklingzeit ab, die sich für verschiedene Gewebearten charakteristisch unterscheidet und zu verschiedenen Signalstärken (Helligkeiten) im resultierenden Bild führt. Neben der Anregung der Atomkerne und der Messung ihrer Signale ist die Ortskodierung durch ortsabhängige Magnetfelder (Magnetfeldgradienten) entscheidend für die Bildgebung. Um die Signale den einzelnen Volumenelementen (Voxeln) zuordnen zu können, wird mit linear ortsabhängigen Magnetfeldern (Gradientenfeldern) eine Ortskodierung erzeugt. Ein Gradient liegt bei der Anregung an und stellt sicher, dass nur eine einzelne Schicht des Körpers die passende Larmorfrequenz besitzt, also nur die Spins dieser Schicht ausgelenkt werden (Schichtselektionsgradient). Ein zweiter Gradient quer zum ersten wird nach der Anregung kurz eingeschaltet und bewirkt eine kontrollierte Dephasierung der Spins dergestalt, dass in jeder Bildzeile die Präzession der Spins eine andere Phasenlage hat (Phasenkodiergradient). Der dritte Gradient wird während der Messung rechtwinklig zu den beiden anderen geschaltet; er sorgt dafür, dass die Spins jeder Bildspalte eine andere Präzessionsgeschwindigkeit haben, also eine andere Larmorfrequenz senden (Auslesegradient, Frequenzkodiergradient). Alle drei Gradienten zusammen bewirken also eine Kodierung des Signals in drei Raumebenen. Das empfangene Signal gehört zu einer bestimmten Schicht des Körpers und enthält eine Kombination aus Frequenz- und Phasenkodierung, die der Computer mit einer Fourier-Transformation in ein zweidimensionales Bild umrechnen kann. Die Grundlage der Messung sind die Atomkerne in der untersuchten Materie selbst. Ähnlich dem Spin der Elektronen in der Hülle haben alle Nukleonen einen Drehimpuls Eigendrehimpuls - einen Vektor, der parallel zu ihrer Drehachse liegt. Der Spin von Protonen und Neutronen ist genau entgegengesetzt. Befinden sich also in einem Atomkern exakt so viele Protonen wie Neutronen, so gleichen sich die Drehimpulse aus und der resultierende Drehimpuls ist gleich Null. Sind die beiden Gruppen der Nukleonen jedoch nicht mit der selben Anzahl im Kern vertreten, hat der Atomkern als Ganzes einen von Null verschiedenen Eigendrehimpuls: er rotiert um seine Hauptachse. Bedenkt man nun, daß Atomkerne eine positive elektrische Ladung magnetisches Moment tragen, ist leicht ersichtlich, daß diese Ladung als elektrischer Wirbelstrom aufzufassen ist, der ein Magnetfeld induziert. Wir halten also fest, daß es sich bei einem Atomkern um einen rotierenden Körper handelt, der ein magnetisches Moment besitzt - Hauptfeld kann durch Permanentmagneten, Widerstandsmagneten oder supraleitende Spulen erzeugt Kopfes dauert typischerweise 10–30 Minuten Praktische Probleme Neu hinzu kommt die Fülle von verschiedenen Einflußgrößen. Es ist eine erhebliche Erfahrung notwendig, die richtige Sequenz für die anstehende Messung zu finden. Auch sind noch längst nicht alle Möglichkeiten erforscht. Gerade im Bereich der physiologischen Untersuchung besteht noch erheblicher Forschungsbedarf. Derzeit keine Bewegtbilder (zu geringe Rechenkapazität)

22 Positronen-Emissions-Tomographie
Grundlage: Emittierung von Beta-Strahlung (Positronen) Funktionsweise: Bei Wechselwirkung mit Elektron 2 Photonen in 180°-Winkel ausgesandt Rekonstruktion: Ring-Detektor für Photonen; zeitlich und räumliche Verteilung der Zerfallsereignisse Kombination PET/CT und PET/MRT Vorteile Hirnstoffwechsel wahrnehmbar Nachteile Hohe Kosten Strahlenbelastung Das Prinzip der PET-Untersuchung besteht darin, Koinzidenzen zwischen je zwei genau gegenüberliegenden Detektoren aufzuzeichnen. Aus der zeitlichen und räumlichen Verteilung dieser registrierten Zerfallsereignisse wird auf die räumliche Verteilung des Radiopharmakons im Körperinneren geschlossen und eine Serie von Schnittbildern errechnet. Häufige Anwendung findet die PET bei stoffwechselbezogenen Fragestellungen in der Onkologie, Neurologie sowie Kardiologie. langen Aufnahmezeiten, die selbst bei modernen Geräten bei 15 bis 30 Minuten liegen Bewegungserfassungssystemen (sog. Motion-Tracking) die Bewegung des Patienten während der Untersuchung aufzuzeichnen und um dann ggf. bei starken Bewegungen die Rohdaten einer Aufnahme so zu modifizieren

23 Schaffen künstlicher Intelligenz (Forward-Engineering)

24 Geschichte Turing-Test (Alan Turing, 1950)
Entscheidung der Frage „Können Maschinen Denken“ menschlicher Fragesteller; Tastatur und Bildschirm; kein Sicht- und Hörkontakt; zwei ihm unbekannten Gesprächspartnern (1x Mensch, 1x Computer); wenn Fragesteller nach Befragung nicht sagen kann, wer Mensch ist, ist bestanden Vermutung Turings: bis % „Täuschungsquote“ 10/2008 University of Reading 6 Programme  beste 25% Probleme: Datenbank mit möglichen Gesprächsverläufen  reines Durchsuchen würde schon Intelligenz bedeuten Die „Simulation einer zwischenmenschlichen Unterhaltung“ ist weniger als Intelligenz und testet also nur einen Teil dessen, was unter (menschlicher) Intelligenz verstanden wird. Eine Maschine könnte intelligent sein, ohne dass sie wie ein Mensch kommunizieren kann. Viele Menschen (z. B. kleine Kinder oder Menschen mit psychischen Problemen) würden den Turing-Test nicht bestehen, sind aber trotzdem intelligent. Menschen, die nicht mit den Testbedingungen kooperieren, würden den Test nicht bestehen, was auch für die postulierte intelligente Maschine denkbar wäre – die Nichtkooperation zeugt nicht von Dummheit. Falls Intelligenz und Bewusstsein einander nicht bedingen, kann der Turing-Test die Frage nach dem Bewusstsein einer Maschine nicht beantworten. Die Größe einer Datenbank von möglichen Gesprächsverläufen ist durch die Laborsituation beschränkt. Ein reines Durchsuchen von Datensätzen durch den Computer würde dem Turing-Test zufolge schon Intelligenz bedeuten.

25 Neuroinformatik Reine Logik der KI führte nicht zum gewünschten Erfolg
Nachahmung der Natur Gewinnung von Informationen aus schlechten oder verrauschten Daten Lernen (überwacht, nicht überwacht) Viele Anwendungen in Mustererkennung und Bildverstehen

26 Grundlage Künstliche Neuron Typen von Netzen
Einschichtig, feed-forward Mehrschichtig, feed-forward Rekurrent (Rückkopplung/Gedächtnis) Lernen Änderung der Wichtungen Änderungen Schwellwert Änderung Aktivierungsfunktion Änderung Zahl Neuronen/Verbindungen Schwellenwert: Das Addieren eines Schwellenwerts θj zur Netzeingabe verschiebt die gewichteten Eingaben. Die Bezeichnung bestimmt sich aus der Verwendung einer Schwellenwertfunktion als Aktivierungsfunktion, bei der das Neuron aktiviert wird, wenn der Schwellenwert überschritten ist. Die biologische Motivierung dabei ist das Schwellenpotenzial bei Nervenzellen. Mathematisch gesehen wird die Trennebene, die den Merkmalsraum auftrennt, durch einen Schwellenwert mit einer Translation verschoben. Gemeinsamkeiten/Unterschiede

27 Anwendungen Wahrnehmung Mustererkennung Fingerabdrücke Gesichter
Spracherkennung und Sprachverstehen Wirkstoffforschung Weitere Modellierung psychischer Störungen beim Menschen KI für Computerspiele Vorhersagen (Bsp: Absatzprognose in Supermarkt) Anordnung von Dokumenten nach inhaltlicher Ähnlichkeit

28 Höherwertige Funktionen
(An) Triebe/Gefühle Empathie Religion „Seele“/Selbstbewußtsein Dietrich Dörner: „Bauplan für eine Seele“  das was wir als „Bewußtsein“/Seele erfahren, ist Folge der komplexen Vorgänge aufgrund der Konstruktion Philosophisch: Wie können wir messen? Wir können nicht mal nachvollziehen, wie sich Fledermaus fühlt, obwohl uns viel ähnlicher

29 Forschung http://de.wikipedia.org/wiki/Blue_Brain FACETS
EU-Projekt im Rahmen des Information Society Technologies (IST) Siliziumchip, künstliche Nervenzellen und über 50 Millionen Synapsen Testanwendung = Teil des komplexen visuellen Systems nachgebildet, insbesondere Reaktion auf schnell wechselnde Eingangsmuster IBM Blue Brain Zwischenziel: Vollständige Simulation des Neocortex (Sinneseindrücke, Bewegungen , Assoziationszentren) 11/2007 erreicht Ziel: Modelle verschiedener Gehirnregionen sowie deren Vernetzung Problem: Wie messen, wenn nicht angeschlossen

30 Hybride Ansätze

31 Steuerung mit Gedankenkraft
Brain-Computer-Interface Elektroenzephalogramm (EEG), Messung der Hirnströme Interpretation durch Computer Ansteuerung von Motoren… Kommerzialisierung Braingate Implantation eines Computerchips in motorischen Kortex 100 Elektroden Steuerung von Rollstuhl Forschung: Mehr Elektroden (1000); verschieden Einsatzgebiete (Sprache, …) Bci späte 1980er/anfang 90er

32 Künstliches Auge Bei Retinitis pigmentosa sterben Photorezeptoren langsam ab 60 Elektroden, einen Viertel so groß wie Briefmarke mit Mikro-Metallstift an Rückseite der Retina (Netzhaut) befestigt Kamera, montiert auf einer Brille Computer am Gürtel konvertiert die visuelle Information in elektrische Signale Erkennen von Umrissen, Dingen und Orten Weltweit 10 mal durchgeführt (Stand 02/2008); Kosten ~30000US$

33 Forschung/Zukunft Neurointerface
Nutzung als Speichermedium bzw. „Upload“ von Daten ins Gehirn Problemstellungen zuverlässige, möglichst risikoarme Schnittstelle Umwandlung in „Neuralen Code“ Erste Ansätze kegelförmige Elektrode, in die Nervenzellen einwachsen können Steuerung Sprachsynthesizer (bisher nur Vokale)

34 Zusammenfassung und Ausblick

35 Zusammenfassung Mensch als komplexer, sehr leistungsfähiger Analog-Computer; massiv parallele Ausführung und Filterung; anfällig für Irreführung Informatik hilft durch nicht-invasive bildgebende Verfahren, Informationen über Aufbau und Funktionsweise des Menschen/Gehirns zu erfahren Informatik nutzt die gewonnenen Informationen zur Realisierung künstlicher Intelligenzen (in progress); weit davon entfernt Kopplung von Mensch und Computer (Prothesen und künstliche Sinnesorgane bis hin zur virtuellen Realität)

36 Ausblick „Das eben nenne ich Plagieren. [..] Ein neuer Mythos ist entstanden, Tichy, der Mythos, einen >Homunkulus< zu bauen. Warum sollten wir eigentlich Menschen aus Transistoren und Glas bauen? Können Sie mir das erklären? [..] Warum soll eine vernünftige Maschine ein >synthetisches Hirn< sein, geschaffen nach dem Vorbild des Menschen? Wozu? Um zu den drei Milliarden Eiweißwesen noch eines hinzuzufügen, [..]?“ Stanislav Lem: „Doktor Diagoras“, 1982

37 Ausblick Vorbild Mensch weil: Millionen Jahre Entwicklungszeit
Besseres Verständnis des Menschen (Funktionsweise Gehirn) „Heilung“ kranker Menschen durch bessere Prothesen/Verbindung Computer/Gehirn Wissen über Krankheiten wie Parkinson, Alzheimer und Demenz Schaffung virtueller Realitäten + virtuellen Mitmenschen + Erinnerungen  Menschheitstraum Unsterblichkeit?

38 Wo ist die (ethische) Grenze? Gibt es die?
Ausblick Gefahr der Manipulation/Beeinflussung/Spionage durch Militär, Regierungen, …  Gedankenzensur Technikdoping (gewollt/verboten)? Computerviren gefährlich für Menschen? Unterscheidung zwischen virtueller Realität und Wirklichkeit verschwimmt Wo ist die (ethische) Grenze? Gibt es die?

39 Vielen Dank für die Aufmerksamkeit
42 Vielen Dank für die Aufmerksamkeit


Herunterladen ppt "Das Gehirn als Computer - Der Computer als Gehirn"

Ähnliche Präsentationen


Google-Anzeigen