Building new brains. Was brauchen wir um ein Gehirn zu bauen? = Ein paar wichtige Formalismen – Rekursive Suche – Selbstorganisierende Netzwerke – Der.

Slides:



Advertisements
Ähnliche Präsentationen
Lokale und globale Netzwerke
Advertisements

Vorlesung Programmieren II
Vom graphischen Differenzieren
Das duale Zahlensystem
Geschichten aus der 4.Dimension
Wesenszüge der Quantenphysik
Netzwerke im Dialogmarketing
Theorie psychometrischer Tests, III
C.M. Presents D.A.R. und Ein Bisschen dies und das!
Einführung.
Bewegung elektrischer Ladungen im elektrischen Feld
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
Kapitel 2 Die rationalen und die irrationalen Zahlen.
FS_Geschwindigkeitsmessung
Lokale und globale Netzwerke
Spezifität Warum verwenden Organismen Enzyme als Katalysatoren?
Die Nukleon-Nukleon Wechselwirkung
Was sind Histogramme? (1)
Theorie soziotechnischer Systeme – 12 Thomas Herrmann Informatik und Gesellschaft FB Informatik Universität Dortmund iundg.cs.uni-dortmund.de.
Vortrag: Ingo Gensch, Mathias Reich am:
Experiment und Deutung richtig, anders richtig, am Rande richtig oder gar nicht vorhanden KPK Workshop 2010.
Gymnasium Horn – Bad Meinberg
Kakuro Regeln und Strategien
Duo- und Quad Prozessor-Architektur
CPLD/FPGA-Programmierung mit E-blocks. Wozu die CPLD/FPGA-Programmierung untersuchen? Zusammenhang zur modernen Digitalen Elektronik Verschwinden der.
Name des Vortragenden Klasse Ort / tt.mm.jjjj Beschreibung Zentraleinheit CPU, Motherbord, RAM.
? Was ist Informatik? Was ist Informatik? Alexander Lange
„Was steht eigentlich hinter dem Roten Kreuz?“
Übungsaufgaben für Microsoft Excel
Programm – 09.50: Begrüßung und Umfrage – 11.30: Vorträge
AUFBAU DER ATOME.
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt WS 06/
Neuronale Netze.
Institut für Theoretische Physik
Wahrscheinlichkeitsrechnung
Datenreihen erzeugen –
Informatik: Zwischen Wissenschaft und Zehnfingersystem
Neugierde die Triebfeder der Forschung
Das Binär-System Alles ist davon abhängig, ob Strom fließt oder nicht!
Galaxiencluster, dunkle Materie und der LHC. Dunkle Materie August 2006: NASA Finds Direct Proof of Dark Matter
Situation Endlich haben Sie es geschafft auf alle Daten zuzugreifen und können in Ruhe weiterarbeiten und die Kundenanrufe betreuen. Plötzlich schaltet.
??? Quantencomputer Geschwindigkeit Anwendungen:
Wider den Methodenzwang
Berechenbares Chaos - unvorhersehbare Wirklichkeit
Rechnersysteme: Halbzeit Marcel Waldvogel. Marcel Waldvogel, IBM Zurich Research Laboratory, Universität Konstanz, , 2 Daten und Information.
Vienna Conference on Consciousness Teil I "Was ist die neuronale Grundlage des Bewußtseins? Wo ist es im Gehirn?" Beitrag von Michael L. Berger (Center.
Galaxien, dunkle Materie und der LHC. Etwas fehlt Wie schnell sich ein Stern in einer Galaxie um das Galaxienzentrum dreht, seine Rotationsgeschwindigkeit,
Vom graphischen Differenzieren
Grammatikalische Begriffe im Unterricht
Ingenieur – Erfinder - Pionier
Kapitel 3: Erhaltungssätze
Helium, ein einfaches Element mit besonderen Eigenschaften
Könntest Du in einem Jahr sagen
Chemie Olympiade Forschungsthema: Der Atombau.
Einführung, photoelektrischer Effekt Welle-Teilchen Dualismus
Der Taskmanager ist Bestandteil des Betriebssystems, der als Prozessmanager Prozessmanager unter anderem die aktuell laufenden Programme und Prozesse.
Ich wünsche dir Leben ! Berge kommen nicht zusammen, Menschen schon !
Prototyping Berlin · Seite 2 Prototyping: Was und wozu Die Zukunft ausprobieren und erfahren durch „Machen“. Einen Mikrokosmos kreieren.
Die Computermaus Von Ziegler Bernhard.
1 Quantencomputer Vom Mythos zur Realität Lehnen Sie sich zurück und geniessen Sie, was ich zu sagen habe und fragen Sie nicht nach dem Wieso, denn sonst.
Neutrino-Oszillation !
 Präsentation transkript:

Building new brains

Was brauchen wir um ein Gehirn zu bauen? = Ein paar wichtige Formalismen – Rekursive Suche – Selbstorganisierende Netzwerke – Der Kampf zwischen konkurrienden Entwuerfen (Design) = Wissen – Nur ein paar Wissensfragmente – Rest wird von adaptiven Methoden gelernt

Was brauchen wir um ein Gehirn zu bauen? = Faehigkeit Berechnungen durchzufuehren – Staerken und Schwaechen des Gehirns • Berechnet sequentiell sehr langsam • Parallel sehr schnell – Schwaeche ist schwer zu beheben da: • DNA kann Struktur erweiteren / veraendern aber ist nicht in der Lage sich von Grund auf an zu aendern

Frage: Wann wird die Hardware- Kapazitaet des Gehirns erreicht = Dazu muss man die Geschwindigkeitsentwicklung des Computers betrachten = Computergeschwindigkeit := (Berechnungen/Sekunde/$1000) – alle 3 Jahre verdoppelt – alle 2 Jahre verdoppelt = Heute verdoppelt sich die Leistung des Computers jedes Jahr

Frage: Wann wird die Hardware- Kapazitaet des Gehirns erreicht = Dazu muss man die Geschwindigkeitsentwicklung des Computers betrachten = Computergeschwindigkeit := (Berechnungen/Sekunde/$1000) – alle 3 Jahre verdoppelt – alle 2 Jahre verdoppelt = Heute verdoppelt sich die Leistung des Computers jedes Jahr

Rechenleistung des Gehirns: = Gehirn besteht aus 100 Milliarde Neuronen. Jeweils 1000 Verbindungen zwischen Neuron und jedem Nachbarn bestehen. 100 Billion Verbindungen = Jede Verbindung kann 200 Berechnungen / Sekunde ausfuehren 20 Millionen Milliarden Berechnungen / Sekunde vom Gehirn koennen vom Gehirn ausgefuehrt werden

Wann sehen wir also diese Geschwindigkeit in unserem Computer? Der Verlauf aehnelt einem exponentielles Wachstum in einem exponentiellen Wachstum = Das kommt daher, weil zwei Faktoren auf das Law of Accelerating Returns angewendet werden – 1. Strang: (besonders zuerst) Geschwindigkeit erhoehen indem man die Transistoren kleiner macht (kuerzerer Weg) – 2. Strang: Hoehere Dichte von Transistoren auf gleich grossem Chip = + In den 90 Jahren ernsthafter Beginn von Versuchen paralleler Berechnungen in Computern

Wann werden Computer den Speicherplatz des Gehirns erreichen? = Das Gehirn hat 100 Billion Synapsen (Verbindungen zwischen Neuronen). -> 1 Million Miliarde Bits. = 1998 kostet 1 Miliarde Bits (128 MB) $200 und Kapazitaet doppelt alle 18 Monate. = => Million Milliarde Bits kosten $1000 (Und sind um den Faktor eine Million schneller)

Wann sehen wir also diese Geschwindigkeit in unserem Computer? = IBM baut Computer auf Basis von Deep Blue mit 10 Terraflops (10 Billion Berechnungen / Sekunde) = Nippon Electric versucht dies zu schlagen mit 32 Terraflops. = Da IBM sich das nicht gefallen laesst, wollen sie bis Terraflops-Rechner gebaut haben. = => Terraflops was dem Gehirn entspricht = (Bestaetigt K.s Theorie : PCs 10 Jahre auf die aktuellen Supercomputer Rueckstand) = Nach Kurzweil ueberschreitet die ungenutzte Kapazitaet der Menge heimischen Rechner im Internet jetzt schon das Gehirn. = => Die Hardware-Vorraussetzung fuer ein Gehirn ist jetzt schon da.

Wie wird es weitergehen? = Ausgehend davon, dass sich die Geschwindigkeit jedes Jahr verdopplelt = und die Weltbevoelkerung ungefaehr 10 Milliarden Menschen betraegt. – $1000 PC = Gehirn – PC = Kleine Stadt – PC = United States – PC = eine billion Menschen – 2099 fuer einen Penny kann die Rechnenleistung aller Gehirne auf der Erde haben.

Computer im 21 Jahrhundert = Wenn Moore Law gegen 2020 laut Kurzweil nicht mehr greift, weil Schaltkreise in der Groesse von ein paar Atomen ungewuenschte = Quanten-Effekte hervorrufen - = dann kann man in die dritte Dimesion bauen. = Schichten von Schaltkreise werden uebereinander gelegt. = Im Moment noch zu teuer = Darueber hinaus gibt es noch ein Fuelle von anderen Herangehensweisen, die ich nun erlaeutern werde

Rechnen mit Licht = Optische Computer verwenden Photonenstroeme (Lichtpartikel) statt Elektronen. = Laser kann Milliarden von coherenten Stroemen produzieren die unabhaengige Berechnungen durchfuehren = Einsatz schon heute bei Erkennung von Fingerabdruecken. = Vorteil: Der massive Parallelismus von Berechnungen = Nachteil: Die Computer sind nicht programmierbar. Fuehrt nur eine feste Anzahl von Berechnungen fuer eine gegebene Konfiguration von optischen Berechnungselementen durch

DNA basierte Computer = DNA-Computer eignen sich aufgrund ihres massivem Parallelsimus gut zum loesen kombinatorischer Probleme = Forscher haben Enzyme erkannt die logische Grundoperationen wie "und,"oder",usw in der DNA ausfuehren. = "Traveling salesman" Problem ist mit dieser Form von Berechnung in sehr kurzer Zeit zu loesen. = flexibler als Optische Rechner, aber immernoch sehr begrenzt

Computer in Form eines Kristalles = Daten werden in Form von einem Hologram (also dreidimensional) in einem Kristall gespeichert = Methode braucht nur 1 Million Atome zur Speicherung eines bits. => 1 Billion Bits auf ein ccm. (das ist ueber ein GB) = Es gibt auch Projekte die versuchen die direkt mit Hilfe von Kristallen Berechnungen anstellen

Die Nanotube = 1985 Buckyballs entdeckt – Carbon-Molekuele mit einem penta- oder hexagonalen Muster. – entstehen im Dampf eines Hochofens – sehr hart - haerter als Stahl = Nanotubes sind aehnlich – verlaengerte Carbon-Molekuele (deswegen tube) – entstehen aus dem Dampf einer "Carbon-Bogen- Lampe" – sind extrem klein (deswegen Nanotube) – genauso hart

Die Nanotube = Der Vorteil: Hat die gleichen elekronischen Eigenschften wie Silikon basierte Komponenten Die Vorteile: – eine gerade Nanotube leitet Elektrizitaet besser als Metall – bei leichtem helixartigem Dreh in der Form, kann die Nanotube sich wie ein Transitor verhalten – viel belastbarer als Silikon - koennen mit Hitze besser umgehen -> koennen besser in 3 dimensionale – Architekturen aufbauen – Forscher haben Visionen Computer aus Nanotubes zu bauen die viel kleiner, kompakter und schneller sind als die heutigen. Auch die Rechenleistung des Gehirns soll dadurch uebertroffen werden.

2.1 Kurze Einführung in die Quantenmechanik (1) Zur Erinnerung: Das Photon (Elementarteilchen) • Bezeichnung für die kleinsten Energieteilchen elektromag- netischer Strahlung. • Die Teilchen lassen sich weder durch ein elektrisches noch durch ein magnetisches Feld ablenken. • Die Teilchen besitzen sowohl die Eigenschaften eines Teilchens, als auch die einer Welle. (Welle-Teilchen- Daulismus) • Materie gibt Energie nicht kontinuierlich ab, sondern in Energiepaketen, sog. Quanten (Planck) Bernd Güde

Einführung in die Quanten- mechanik – Superposition (2) Bernd Güde D1D1 D2D2 = halbdurchlässiger Spiegel (aufgestellt in Winkel 45°) D 1, D 2 = Detektoren Photonen

Einführung in die Quanten- mechanik – Superposition (3) Ergebnis: • Der halb durchlässige Spiegel bewirkt, dass man in Detektor D 1 und Detektor D 2 jeweils 50 % der gesendeten Photonen messen kann. D1D1 D2D2 = halb durchlässiger Spiegel D 1, D 2 = Detektoren Photonen

Einführung in die Quanten- mechanik – Superposition (4) 1 2 = halbdurchlässiger Spiegel 1 2 D1D1 D2D2 = nichtdurchlässiger Spiegel D 1, D 2 = Detektoren Bernd Güde Photonen Alle Spiegel sind aufgestellt im Winkel = 45°

Einführung in die Quanten- mechanik – Superposition (5) Ergebnis: • Der halb durchlässige Spiegel 1 bewirkt zwar, dass man in Detektor D 1 und Detektor D 2 jeweils 50 % der gesendeten Photonen messen kann. • Die beiden Wege werden durch die Reflektoren aber wieder zusammengefügt. ABER: In Detektor D 1 kann man jetzt komischer Weise alle Photonen messen, in D 2 keine. Was bedeutet dieses Phänomen?

Einführung in die Quanten- mechanik – Superposition (6) Interpretation: • Photonen haben grundsätzlich die Eigenschaft, dass sie durch halb durchlässige Spiegel zu laufen (immer) oder nicht (nie). Diese Interpretation liegt vielleicht nahe, aber ist dennoch falsch, was durch nähere Betrachtung folgendes deutlich (vgl. 1.1): • Photonen interferieren, d.h., sie überlagern sich. Dabei können sie sich verstärken (konstruktive Interferenz) oder aufheben (destruktive Inter-ferenz).

Einführung in die Quanten- mechanik – Superposition (7) Das Versuchsergebnis kann man jetzt so interpretieren, dass am zweiten halb durchlässigen Spiegel Photonen inter- ferieren, so dass in der Richtung Detektor 1 konstruktive Interferenz herrscht und in Richtung Detektor 2 destruktive. Das Erstaunliche ist, dass dieses Experiment auch mit nur einem einzigen Photon funktioniert. Es liegt nahe, dass sich Photonen nicht spalten können. Blockiert man einen der Wege, so kann man messen, dass das Photon jeweils an Detektor 1 und Detektor 2 messbar ist. Ein Photon hat dann also mit sich selber interferiert, es hat zwei Wege verfolgt. Dieser Zustand heißt kohärente Superposition.

2.2 Technische Umsetzung des Quantencomputers (1) Die Tatsache, dass ein Photon zwei Zustände annehmen kann, wirkt sich revolutionär auf den Bau von Rechnern aus: • klassische Rechenmaschinen kennen nur den Zustand 0 oder 1. • Mit den quantenmechanischen Effekten könnte man jetzt ein Qubit definieren, welches den Zustand 0 und 1 kennt. Das sind seine Basiszustände. Man muß daher noch eine Gewichtung vornehmen, um dann auch mit Qubits rechnen zu können, dies geschieht über Wahrscheinlich- keiten, welche es erlauben, Qubits zu steuern.(aufgr. Interferenz)

Technische Umsetzung des Quantencomputers (2) Ein einzelnes Qubit scheint noch nicht recht sinnvoll. Interessant wird diese neue Art den Rechnen doch erst, wenn man viele Qubits verwenden (und steuern) kann. Erst dann wird der Quantencomputer zu einem mächtigen Parallelrechner. Problem der Superposition ist leider aber, daß man sie nicht messen kann: Will man ein Photon in Superposition messen, muss man es anstoßen, dabei verliert es seine quantenmechanischen Eigenschaften. Das wird auch zum Problem für Quantencomputer: sie müssen von äußeren Einflüssen völlig abschotten.

Technische Umsetzung des Quantencomputers (3) Ferner treten Fehler auf, denn es wird mithilfe von Wahr- scheinlichkeiten gemessen. Das bedeutet man muß, um mit Qubits rechnen zu können auch immer über geeignete Fehlerkorrekturmechanismen verfügen. Die Herstellung und gezielte Manipulation stellt ein enormes technisches Problem dar. Aktuell kann man Systeme herstellen mit 5 Qubits. Ein weiteres Problem ist, daß man zwar das Ergebnis einer Superpostion kennt, aber keine Zwischenergebnisse. Man kann also nicht alle Informationen an die Außenwelt über- tragen. Auch für Algorithmen bedarf vieler komplexer Überlegungen.

Technische Umsetzung des Quantencomputers (4) Allerdings sind Quantencomputern auch Grenzen gesetzt. • Datenbanken können nur unwesentlich schneller durchsucht werden, als mit herkömmlichen Algorithmen. Jedoch ist der technische Aufwand um ein Vielfaches größer. Vorteile hat ein Quantencomputer allerdings mit Aufga- ben, wo parallele Rechenleistung gefragt ist (Faktorisie- rung großer Zahlen, etc.) Passende Algorithmen zu finden ist z. Z. das größte Hindernis zum Durchbruch der Quantenrechner.

2.3 Ausblick Zitat: „Auf der Jagd nach dem Quantencomputer“ von R. Emmerich, Pressemitteilung Bayrische Julius-Maximilians- Universität Würzburg, : „ Die Realisierung eines Quantencomputers stellt ein hoch aktuelles Gebiet der physikalischen Forschung dar. [...] Wissenschaftler von der Universität Würzburg haben zusammen mit Kollegen aus Kanada ein wesentliches Bau- element für einen Quantencomputer, ein „ quantum gate “ realisiert. Dem Wissenschaftsblatt „ Science “ war das einen Bericht wert [...] Seine eigentliche Schnelligkeit bezieht der Quantencomputer aber daraus, dass die einzelnen Bits nicht getrennt angesteuert werden, sondern alle Bits miteinander gekoppelt sind. Die Forscher sprechen hier von Verschränkung: Wird ein bestimmter „ quantum bit “ angesteuert, dann werden aufgrund der Kopplung gleichzeitig auch alle anderen Bits adressiert. Statt einer einzelnen Rechen-operation [...] sind [...]sehr viele Rechenoperationen durchführbar. Der Arbeitsgruppe am Würzburger Lehrstuhl für Technische Physik [...] gelang es zusammen der Forschergruppe [...] vom National Research Council in Ottawa, durch die Kopplung so genannter Quantenpunkte künstliche Moleküle herzustellen... “

Reverse Engeneering = Menschliches Gehirn als Vorbild für ein Computer- Gehirn = Erste Erfolge: Chip basierend auf Retina und ersten visuellen Verarbeitungsstufen bei Säugetieren. = Kritik: Menschliches Gehirn sei zu schwach um sich selbst zu verstehen – Massive parallele Algorithmen sind verstehbar – Anzahl der Algorithmen ist begrenzt – Folge: Menschen oder zumindest zukünftige Maschinen können menschliches Gehirn verstehen

Methoden: Destruktiver Scan = Gehirn wird gefroren, Scheibenweise gescannt und abgetragen. = Ethische Einwände? – Vergleich zu Leonardo da Vinci – Psychologischer Grund für Einwände: Menschen identifizieren sich eher mit ihrem Gehirn.

Methoden: Nicht destruktiver Scan = Gehirn wird nicht (negativ) beeinflusst = Magnetic Resonance Imaging (MRI) = neue Methode: optical imaging – Angewendet zur Erforschung der Wahrnehmung = Law of Accelerating Returns:Scanner sind abhängig von Fortschritt in Physik und vor allem Computern – Folge: Immer bessere Scanner sind abzusehen = Vergleich zum Genom-Projekt – Der anfangs zu hohe Aufwand kann durch neue Technologien in absehbarer Zeit bewältigt werden.

Zweck: Erforschung des Gehirns = Verständnis der Funktion des (menschlichen) Gehirns – Details weniger wichtig als grundlegende Muster – Entwicklung neuronler Netze, durch reverse engeneering. – funktioniert vor allem in kleinen Systemen – Algorithmen können nicht nur verstanden, sondern for dem reimplementieren verbessert werden. – Da Computer auch schneller, folgt: Neue Gehirne werden überlegen sein. = Ungewollte menschliche Aspekte können weggelassen werden. Wesentliches darf nicht übersehen werden.

Zweck: Gehirn in Maschine kopieren = Hoher Aufwand, da alle Details beachtet werden müssen. = Aber: Nur genaues Kopieren nicht Verstehen erforderlich. = jede einzelne Komponente im Hirn muss verstanden werden: – große Anzahl verschiedener Neurotransmitter – Unterschiedliche Neuronen – evtl. Strukturen, die Quanten-Rechnen ermöglichen = Aber: es müssen nur informations-relevante Teile kopiert werden, nicht die zur Selbsterhaltung.

Konsequenzen = Fehler beim Kopieren? – Persönlichkeiten verändern sich auch in realer Welt ständig – Technik wird sich verbessern = Körper für das Gehirn-Medium? – den alten Körper, evtl, verbessert, Maschine, Clon, vollständig virtuell = Das entstandene Wesen wird behauten ein Bewusstsein zu haben. – Das Wesen wird intellektuell einem Menschen überlegen sein, da es schneller, fehlerfreier und mit größerer Wissensbasis denken kann.

Trends = ab der zweiten Hälfe dieses Jahrhunderts wird das biologische Gehirn ersetzt. – Zuerst teilweise: alterndes Gedächtnis ersetzen, verbesserte Schaltungen zum Nachdenken und zur Mustererkennung. – Später vollständig: schneller Denken, mehr Gedächtnis, alles Wissen, ständige Kommunikation als Folge der billigen Computerressourcen. = Vergleich: Alte Vinyl Platten wurden auf moderne digitale Tonträger umkopiert

Unsterblichkeit = Menschen werden software nicht hardware sein – Unsterblichkeit als logische Folge = Heute ist die Software durch die Hardware (Gehirn) begrenzt - in einer neuen Hardware kann sie wachsen. = Überleben hängt nicht mehr von Hardware, sondern von 'Datenpflege' ab.

Zeitalter der neuralen Implantate = Erfolgreicher Einsatz von neuralem Implantat gg. Parkinson = Implantate die Tauben oder Blinden helfen = Übergang von Nerven zu Elektronik ist möglich. – Entwiclung vom Max-Plank Institut.. Bsp. Kontrolle der Bewegung eines Blutegels per Computer. – beidseitig wandelnde Geräte sollen z.B. in Prothesen eingesetzt werden. = was zuerst gegen Krankheiten eingesetzt wird, wird später auch zur Leistungssteigerung genutzt werden.

Kurzweils Reflektion = Überleben des Entwickelteren – Bsp.: Homo Sapien Sapiens vs. Homo Sapiens Neanderthalis. – Bsp.: Europäer vs. amerikanische Ureinwohner = Keine Unterwerfung der Schwächeren – Da Sklaverei 'kein fruchtbares ökonomisches' System für beide Seiten im Zeitalter des Intellekts ist. = Diese Entwicklung kann und darf nicht gestoppt werden – Gesetztes der beschleunigenden Wiederholung – verstößt gegen alle Grundlagen ökonomischer Konkurrenz und der Suche nach Wissen – Viele Vorteile durch diese Entwicklung

Fragen: = Kurzweils 'Mensch' - Summe neuraler Verbindungen? = Unsterblicher Mensch - Ersetzbarer Mensch? = Überleben des Entwickelteren oder Stärkeren - ein gesellschaftliches Modell? = Zeitalter des Intellektes - ein garant für Freiheit? = Unausweichlicher Fortschritt - eine Perspektive für die Gegenwart?