Depth of Field Ein Fachvortrag von: Max Goltzsche und Igor Marijanovic Real-Time RenderingBeuth Hochschule für TechnikSoSe 2012.

Slides:



Advertisements
Ähnliche Präsentationen
Algorithmen und Datenstrukturen
Advertisements

Fluch oder Segen? Gentechnik.
Computer Graphics Shader
Referat: Flachbildschirme
Prüfung objektorientierter Programme -1
1 Workshop: Grundlagen des IT-Projektmanagements - Version /2004Modul: Aufwand – Ergänzung FP Copyright: Dr. Klaus Röber Modul Ergänzungen zur.
Arbeitsbereich Technische Aspekte Multimodaler Systeme Universität Hamburg Fachbereich Informatik Oberseminar TAMS Grundlagen omnidirektionaler Sichtsysteme.
Multi-Media Seminar von Andre Münch
Das gespiegelte reelle Bild
HG13_ Herzgen, Jung & Lorkowski1 Java Programmierung BlueJ Workshop.
HG13_ Herzgen, Jung & Lorkowski
HG13_ Herzgen, Jung & Lorkowski1 Java Programmierung BlueJ Workshop.
Phong Shading (Normaleninterpolation)
Softwaretechnologie II (Teil 1): Simulation und 3D Programmierung
OGRE Object-Oriented Graphics Rendering Engine Szenen-orientierte, flexible 3D Engine in C++ Hardware-beschleunigte 3D Grafiken Unterstützt Direct3D und.
Subjective Contours Gaetano Kanizsa (1976)
Portfoliomodelle Faktormodelle
Java3d „Licht und Material“
Aufbau und Strahlengang Laserstrahlaufweitung
Displacement Mapping Dynamische Generierung detaillierter Geometrien
Special Effects Realistischeres Rendern einer Scene.
Schulphysik 2 3. Linsen.
Modellierung von Baumstrukturen mit einem einzigen Polygonnetz
Die Berechnung der 3D - Szene Web -, Video -, Animationsausgabe und Motionblur.
Scanner.
Erdbebenlokalisierung
Herzlich Willkommen… welcome… soyez la bienvenue….
FHP - Fachbereich Bauingenieurwesen
Integration virtueller und realer Objekte Proseminar: Anwendungen für Augmented Reality.
Computergraphik mit OpenGL Einführung. Bilder Objekt existiert im Raum unabhängig vom Betrachter Objekte sind beschrieben durch die Position verschiedener.
Übersicht Motivation Konzeption Umsetzung/ Implementierung
Goldener Schnitt Anregungen u.a. von
1 Alexander Arimond, University of Kaiserslautern, Germany Entwicklung und Evaluation eines Raytracing-Dienstes für das Venice Service Grid Alexander Arimond.
GIS - Seminar Wintersemester 2000/2001
Computergraphische Visualisierungs- verfahren für 3D-Stadtmodelle
Camera obscura.
Reflexion, Brechung und Totalreflexion
§5-1 §5 Mapping-Techniken Computergrafik - SS Motivation Bisher sind alle Oberflächen (polygonale Objekte, später auch parametrisierte Freiformflächen)
Verhalten von Objekten in der Szene
OOP-Begriffe Abstraktion Modellieren Klasse Objekt Attribute Methoden
Referat N. Gut, D. Roos BSO 09 Optische Blende.
Marktübersicht für Content Management Systeme
Web 1.0 vs. Web 2.0.
Objekte und ihre Beschreibung
Erstellen eines Impossibles:
MOBILE AUGMENTED REALITY
Helwig Hauser Teil 4: Texturing Farbe, Struktur, Umgebung.
Michael Schmidt computer graphics & visualization Texture Mapping Lapped Textures.
Petrinetze 1. Einführung Informatik : wesentlich Modellierung von
Augmented Reality mit korrekter Beleuchtung Thorsten Grosch
Elektronen decken feinste Strukturen auf (Elektronenmikroskope)‏
Erfahrungen mit Microsoft DirectX 8 W. Krug, April 2002.
Geschichte der Erde.
Physik Referat Karim A. Das Mikroskop.
OOP-Begriffe Abstraktion Modellieren Klasse Objekt Attribute Methoden
Universität zu Köln WS 2014/15 HKI – Softwaretechnologie 2 (Teil 1) Von Tilo Kochs.
Die Welt der Shader Universität zu Köln WS 14/15 Softwaretechnologie II (Teil 1) Prof. Dr. Manfred Thaller Referent: Lukas Kley Fortgeschrittene Techniken.
Möglichkeiten der Visualisierung
„Continuous Delivery“
Stefan Röttger Universität Stuttgart (VIS). Überblick 1. Motivation 2. Shadow Volumes [Crow77] 3. Verfahren ohne Stencil Buffer 4. Demonstrationsfilm.
Multimedia und Virtual Reality Vorlesung am Martin Kurze Multimedia in 3D.
Eine Präsentation von Lennart Böcher und Marcel Remmers
Der Verbrennungsmotor speziell: der 2-Takter
PhysX auf der GPU in Batman: Arkham Asylum & bei Fluid Simulations Universität zu Köln Historisch-Kulturwissenschaftliche Informationsverarbeitung Softwaretechnologie.
1. Was ist Immersion „Immersion beschreibt den Eindruck, dass sich die Wahrnehmung der eigenen Person in der realen Welt vermindert und die Identifikation.

Wattwächter zur Erstellung der Anzeige nach §9 BEMFV
Entwurf, Implementierung und Test eines Java – Web Services als Kommunikationsschnittstelle für Webapplikationen mit Funktionen.
Rechen- und Kommunikationszentrum (RZ) Selektionsstrategien auf Graphstrukturen Sven Porsche Seminarvorträge Aachen.
Joachim Herber Verfahren zur korrekten Darstellung von Transparenz ohne Vorsortierung Seminarvortrag
 Präsentation transkript:

Depth of Field Ein Fachvortrag von: Max Goltzsche und Igor Marijanovic Real-Time RenderingBeuth Hochschule für TechnikSoSe 2012

Grundlagen

Depth of Field in der Fotografie Die Zone, die sich aus dem Bereichen vor und hinter einem fokussierten Objekt ergibt, in denen akzeptabel scharf abgebildet wird. DOF ist abhängig vom Typ der Kamera, der Blendenöffnung und der Fokussierung. Quelle: Wikipedia.org

Circle of Confusion Der Circle of Confusion (CoC) definiert, die Schärfe eines Punktes bei einer bestimmten Tiefe. Wenn der CoC sichtbar wird, ist diese Region außerhalb des DOF und somit nicht mehr scharf in einem akzeptablen Rahmen. Quelle: Wikipedia.org

Methoden

Ray-Traced Depth of Field Eigenschaften Beruht auf Ray-Tracing (Modellierung des Weges von Lichtstrahlen durch eine virtuelle Linse) Vorteile Bildet Depth of Field naturgetreu ab Nachteile Enorme Rechenleistung erforderlich und derzeit nicht als Real-Time Rendering Verfahren nutzbar.

Accumulation-Buffer Depth of Field Eigenschaften Es werden Bilder gespeichert die von verschiedenen Punkten durch eine virtuelle Linse betrachtet die Szene abbilden. Vorteile Wie im Ray-Traced Verfahren ist eine natrurgetreue Abbildung des Effektes möglich. Nachteile Da viele Bilder benötigt werden für eine Depth of Field Abbildung ist dieses Verfahren nicht in Echtzeit nutzbar.

Layered Depth of Field Eigenschaften Objekte einer Szene werden in Abhängigkeit ihrer Tiefenwerte auf verschiedenen Ebenen gerendert und zu einem Ausgabebild zusammengefügt. (Optimierung: Ebenenschnitte entlang der Z-Achse) Vorteile Verfahren in Echtzeit anwendbar. Nachteile Sortierung der Objekte schwer, wenn Objekte über mehrere Ebenen gehen. Harte Übergänge zwischen Voreinanderliegenden Ebenen. Probleme bei verdeckten Objekten die bei einem Schnitt sichtbar werden.

Forward-Mapping Z-Buffer Depth of Field Eigenschaften Buffer für Tiefen- und Farbinformationen Punkte werden als Kreise entsprechend ihrem CoC gerendert. Gerenderte Sprites werden zu einem Ausgabebild gemischt. Vorteile Trotz optischer Ungenauigkeiten (Lochkamera) naturgetreuer Depth of Field Effekt Nachteile Für die einzelnen Sprites können Millionen Passes benötigt werden, was den zeitlichen Aufwand bei der Anwendung außerhalb des Echtzeitbereichs bringt.

Reverse-Mapping Z-Buffer Depth of Field Eigenschaften Buffer für Tiefen- und Farbinformationen Variante 1: Textur der Szene wird in verschiedenen Mip-Mapping Leveln erzeugt und Lookups entsprechend dem CoC durchgeführt. Variante 2: Anstatt Mipmaps Verwendung von weichgezeichneten Texturen für die Lookups. Farbmischung aus klaren und weichgezeichneten Texturen. Vorteile Als Real-Time Rendering Verfahren nutzbar. Artefakte durch Optimierung auf akzeptables Maß reduzierbar. Nachteile Diverse Artefakte bei der Anwendung solcher Verfahren.

Implementierung

Vereinfachte Shaderparameter

Weichzeichner

Erstimplementierung (naiv)

Artefakte Depth Discontinuity Artefakte im Übergangsbereich von Würfel und Torus

Postprocessing Pipeline Normales und weichgezeichnetes Bild interpoliert (CoC-abhängig) Weichgezeichnete Bild (CoC-abhängig) Normales Bild mit CoC-Werten im Alphakanal Tiefenbild Normales Bild der Szene

Circle of Confusion Blur

Vorstellung der Implementierung Depth of Field Beispiel

Abschluss Ausblick Fazit

Ausblick In naher Zukunft auch Ray-Traced Depth of Field in Echtzeit denkbar. Mögliche Erleichterungen bei Implementierungen vergleichbarer Effekte durch OpenGL ES 3.0

Fazit DOF-Effekte lassen sich mit Real-Time Rendering Verfahren teilweise nur unter Inkaufnahme von schwerwiegenden Artefakten realisieren. Erweiterung durch dynamischen Weichzeichner ermöglicht jedoch bereits eine deutliche Reduzierung von Artefakten gegenüber der ursprünglichen Implementierung. Höchster Aufwand durch Texture-Lookups beim angewendeten Verfahren.Entwicklung von DOF Verfahren allgemein aufwändig.

Quellen Nutty Software WebGL Depth of Field Example (Nathaniel Meyer) GPU Gems Chapter 23. Depth of Field: A Survey of Techniques (Joe Demers) Gpu Gems 3 Chapter 28. Practical Post-Process Depth of Field (Earl Hammon, Jr.) Devmaster.net (Nathaniel Meyer) wikipedia.org (verschiedene Autoren)

Vielen Dank für Ihre Aufmerksamkeit!