ROBOT VISION Lesson 7/8: Shape from X Matthias Rüther

Slides:



Advertisements
Ähnliche Präsentationen
E-Solutions mySchoeller.com for Felix Schoeller Imaging
Advertisements

Anzahl der ausgefüllten und eingesandten Fragebögen: 211
Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil3.
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Telefonnummer.
Multi electron atoms Atoms with Z>1 contain >1 electron. This changes the atomic structure considerably because in addition to the electron-nucleus interaction,
1 JIM-Studie 2010 Jugend, Information, (Multi-)Media Landesanstalt für Kommunikation Baden-Württemberg (LFK) Landeszentrale für Medien und Kommunikation.
NUMEX – Numerical experiments for the GME Fachhochschule Bonn-Rhein-Sieg Wolfgang Joppich PFTOOL - Precipitation forecast toolbox Semi-Lagrangian Mass-Integrating.
We have a magnetic field that it is very similar to the one of a dipole. Well in reality this is true close to the surface if we go far away enough it.
Rechneraufbau & Rechnerstrukturen, Folie 2.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 2.
Wozu die Autokorrelationsfunktion?
Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil2.
Strahlungsquelle ELBE Laser Power and Pulse Energy Micro- Pulse GunLaser necessary Laser project Q.E.Q bunch I mean P mean E pulse P mean E pulse ELBE.
Differentielles Paar UIN rds gm UIN
Prof. Dr. Bernhard Wasmayr
Studienverlauf im Ausländerstudium
Thomas Herrmann Software - Ergonomie bei interaktiven Medien Step 6: Ein/ Ausgabe Instrumente (Device-based controls) Trackball. Joystick.
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Prof. Dr. Bernhard Wasmayr VWL 2. Semester
AWA 2007 Natur und Umwelt Natürlich Leben
Rechneraufbau & Rechnerstrukturen, Folie 12.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 12.
Seminar Telematiksysteme für Fernwartung und Ferndiagnose Basic Concepts in Control Theory MSc. Lei Ma 22 April, 2004.
Methods Fuzzy- Logic enables the modeling of rule based knowledge by the use of fuzzy criteria instead of exact measurement values or threshold values.
Institut für Umweltphysik/Fernerkundung Physik/Elektrotechnik Fachbereich 1 SADDU June 2008 S. Noël, K.Bramstedt,
Institut für Umweltphysik/Fernerkundung Physik/Elektrotechnik Fachbereich 1 Pointing Meeting Nov 2006 S. Noël IFE/IUP Elevation and Azimuth Jumps during.
Adjektive Endungen von Frau Templeton.
20:00.
Die Geschichte von Rudi
Zusatzfolien zu B-Bäumen
Institut AIFB, Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Towards Automatic Composition of Processes based on Semantic.
Eine Einführung in die CD-ROM
| DC-IAP/SVC3 | © Bosch Rexroth Pneumatics GmbH This document, as well as the data, specifications and other information set forth in.
Dokumentation der Umfrage
BAS5SE | Fachhochschule Hagenberg | Daniel Khan | S SPR5 MVC Plugin Development SPR6P.
Analysis of Cross-Polarization Modulation in Dispersion-Managed DWDM Systems Marcus Winter, Christian-Alexander Bunge, Dario Setti, Klaus Petermann LEOS.
1 Ein kurzer Sprung in die tiefe Vergangenheit der Erde.
Wir üben die Malsätzchen
Alp-Water-Scarce Water Management Strategies against Water Scarcity in the Alps 4 th General Meeting Cambery, 21 st September 2010 Water Scarcity Warning.
Syntaxanalyse Bottom-Up und LR(0)
Titelmasterformat durch Klicken bearbeiten Textmasterformate durch Klicken bearbeiten Zweite Ebene Dritte Ebene Vierte Ebene Fünfte Ebene 1 Development.
Institut für Umweltphysik/Fernerkundung Physik/Elektrotechnik Fachbereich 1 K. Bramstedt, L. Amekudzi, J. Meyer IFE/IUP Tangent heights in occultation.
Fusszeilentext – bitte in (Ansicht – Master – Folienmaster, 1. Folie oben) individuell ändern! Danach wieder zurück in Normalansicht gehen! 1 OTR Shearography.
PROCAM Score Alter (Jahre)
Impairments in Polarization-Multiplexed DWDM Channels due to Cross- Polarization Modulation Marcus Winter Christian-Alexander Bunge Klaus Petermann Hochfrequenztechnik-Photonik.
Einführung Bild und Erkenntnis Einige Probleme Fazit Eberhard Karls Universität Tübingen Philosophische Fakultät Institut für Medienwissenschaft Epistemic.
Berner Fachhochschule Hochschule für Agrar-, Forst- und Lebensmittelwissenschaften HAFL Recent activities on ammonia emissions: Emission inventory Rindvieh.
4th Symposium on Lidar Atmospheric Applications
Image Processing and Analysis Introduction. How do we see things ?
Ertragsteuern, 5. Auflage Christiana Djanani, Gernot Brähler, Christian Lösel, Andreas Krenzin © UVK Verlagsgesellschaft mbH, Konstanz und München 2012.
Geometrische Aufgaben
Symmetrische Blockchiffren DES – der Data Encryption Standard
Cross-Polarization Modulation in DWDM Systems
Zahlentheorie und Zahlenspiele Hartmut Menzer, Ingo Althöfer ISBN: © 2014 Oldenbourg Wissenschaftsverlag GmbH Abbildungsübersicht / List.
MINDREADER Ein magisch - interaktives Erlebnis mit ENZO PAOLO
1 (C)2006, Hermann Knoll, HTW Chur, FHO Quadratische Reste Definitionen: Quadratischer Rest Quadratwurzel Anwendungen.
Hier wird Wissen Wirklichkeit 1 Gravitational Radiation From Ultra High Energy Cosmic Rays In Models With Large Extra Dimensions Benjamin Koch ITP&FIGSS/University.
1 GEOMETRIE Geometrie in der Technik H. Pottmann TU Wien SS 2007.
Sentence Structure Subject and verb are always together. Subject and verb are always together. Subject and verb must agree Subject and verb must agree.
Folie Beispiel für eine Einzelauswertung der Gemeindedaten (fiktive Daten)
1 Stevens Direct Scaling Methods and the Uniqueness Problem: Empirical Evaluation of an Axiom fundamental to Interval Scale Level.
Deutsches Zentrum für Luft- und Raumfahrt e.V. German Aerospace Center Institut für Physik der Atmosphäre Atmosphärische Aerosole The Multi-Angle Absorption.
Technische Universität München 1 CADUI' June FUNDP Namur G B I The FUSE-System: an Integrated User Interface Design Environment Frank Lonczewski.
Unternehmensbewertung Thomas Hering ISBN: © 2014 Oldenbourg Wissenschaftsverlag GmbH Abbildungsübersicht / List of Figures Tabellenübersicht.
Titelmasterformat durch Klicken bearbeiten Textmasterformate durch Klicken bearbeiten Zweite Ebene Dritte Ebene Vierte Ebene Fünfte Ebene 1 Rising energy.
Technische Universität München Fakultät für Informatik Computer Graphics SS 2014 Rüdiger Westermann Lehrstuhl für Computer Graphik und Visualisierung.
Folie Einzelauswertung der Gemeindedaten
1 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt Modalverben.
Datum:17. Dezember 2014 Thema:IFRS Update zum Jahresende – die Neuerungen im Überblick Referent:Eberhard Grötzner, EMA ® Anlass:12. Arbeitskreis Internationale.
1 Medienpädagogischer Forschungsverbund Südwest KIM-Studie 2014 Landesanstalt für Kommunikation Baden-Württemberg (LFK) Landeszentrale für Medien und Kommunikation.
FURTHER MASS SPECTROMETRY
 Präsentation transkript:

ROBOT VISION Lesson 7/8: Shape from X Matthias Rüther Kawada Industries Inc. has introduced the HRP-2P for Robodex 2002.  This humanoid appears to be very impressive. It is 154 cm (60") tall, weighs 58kg (127 lbs) and has 30 DOF. Here is a news release. Notice the LACK of a battery pack.  Here is a new story about HRP2. 

Shape from Monocular Images 2 dim + “?” => 3 dim A priori Wissen Verschiedene Möglichkeiten: Shape from Shading Streifenmethode Photometrisches Stereo Shape from Texture Statistische Methoden Strukturelle Methoden Geometrische Szeneneigenschaften Golfball

Overview Shape from Shading Shape from Specularities Shape from X techniques Shape from Shading Shape from Specularities Three-Dimensional Information from Shadows Shape from Multiple Light Sources, Photometric Stereo Shape from Laser Ranging and Structured Light Images Shape from Texture Shape and Structure from Perspective Effects, Vanishing Points Three-Dimensional Reconstruction from Different Views Depth from Focus, Changing Camera Parameters Surface and Shape from Contours

Shape from Shading Schattierung der Oberfläche beeinflußt die Raumempfindung: Bsp.: Makeup ändert nicht nur Oberflächentextur erzeugt Highlights und Schatten => Raumempfindung

Shape from Shading In Computer Vision erstmals durch Horn [Horn77]: Oberflächenreflexion von untexturierten Objekten beinhaltet Tiefeninformation

Flächengrenzen Flächengrenzen spielen entscheidende Rolle bei Interpretation durch Menschen: Begrenzungslinien werden als Grenze zu Hintergrund interpretiert: => gleiche Schattierung -verschiedene Form

Formrekonstruktion Zur Vereinfachung wird immer Normalprojektion verwendet: => Objekt ist entfernt und nahe der optischen Achse

Beleuchtung ist eine Funktion der Richtung und nicht Entfernung Reflectance Map Reflexionseigenschaften sind zentraler Bestandteil von Shape from Shading Beleuchtung ist eine Funktion der Richtung und nicht Entfernung Beleuchtungsquelle ist weit entfernt keine Zweitbeleuchtung: Reflexion von anderen Gegenständen auf das Objekt ist ausgeschlossen Es gibt keine Schlagschatten, Objekt ist unverdeckt bezüglich Lichtquelle - nur Selbstschatten

Reflectance Map Lambert‘sche Oberflächen: Helligkeit hängt nur von Beleuchtungsrichtung ab, nicht von Beobachtungsrichtung ein Oberflächenpunkt hat in allen Beobachtungsrichtungen gleiche Helligkeit keine Totalreflexion Reflectance Map einer Oberfläche: 2dim Plot des Gradientenraums (p,q) der normalisierten Bildhelligkeit einer Oberfläche als Funktion der Oberflächenorientierung

Gradient Space z=f(x,y) Oberflächennormale

Reflectance Map Equations

REFLECTANCE MODELS n LAMBERTIAN MODEL PHONG MODEL L = E r COS q L = E (a COS q + b COS a) n albedo Diffuse albedo Specular a=0.3, b=0.7, n=2 a=0.7, b=0.3, n=0.5

Surface Reflectance Map

Reflectance Map 2dim Plot des Gradientenraums (p,q) der normalisierten Bildhelligkeit I einer Oberfläche als Funktion der Oberflächenorientierung

Nachteil des Modells: Es gibt keine komplett matten Oberflächen Reflectance Map gerade Linie im Gradientenraum trennt beleuchtete von Schattenregionen: => Terminator Nachteil des Modells: Es gibt keine komplett matten Oberflächen Perfekter Spiegel: Licht wird nur in eine spezielle Richtung reflektiert (Einfallswinkel = Ausfallswinkel), in alle anderen Richtungen keine Reflexion

Reflectance Map Realität Kombination aus matten und spiegelnden Reflexionseigenschaften: Gewichteter Durchschnitt der diffusen und spiegelnden Komponente einer Oberfläche Reflectance Maps für eine bestimmte Oberfläche müssen experimentell bestimmt werden für allgemeines Shape from Shading nicht möglich für mache Oberflächen jedoch bereits bestimmt => Normform

Normform der Reflectance Map Spiegelnde Reflexion durch Ellipse in Reflectance Map Übergang spiegelnd - diffus als Parabel Diffuser Teil: Hyperbel Grenze Licht - Schatten (Terminator) = Linie

Shape from Specularity Suitable for highly reflective Surfaces Specular Reflection map of a single point source forms a sharp peak (Specular model, Phong model) Reflectance map

Shape from Specularity Principle: If a reflection is seen by the camera and the position of the point source is known, the surface normal can be determined. => use several point sources with known position: structured highlight inspection Panorama mirror

Shape From Shadow Also: Shape from Darkness Reconstruct Surface Topography from self-occlusion E.g. Building reconstruction in SAR images, terrain reconstruction in remote sensing http://ieeexplore.ieee.org/iel4/5649/15135/00698646.pdf?tp=&arnumber=698646&isnumber=15135

Shape From Shadow A static camera C observes a scene. Light source L travels over the scene x, position of L is given by angle . L and C are an infinite distance away (orthographic projection). Shadowgram: binary function f(x, ), stating whether scene point x was shadowed at light position . http://ieeexplore.ieee.org/iel4/5649/15135/00698646.pdf?tp=&arnumber=698646&isnumber=15135

Photometric Stereo Multiple images, static camera, different illumination directions At least three images Known illumination direction Known reflection model (Lambert) Object may be textured

Photometric Stereo Albedo (reflectivity) Reflection model 3 unknowns per pixel at least three illumination directions

Photometric Stereo

Photometric Stereo: Example Input images From Forsyth & Ponce Recovered normals Recovered albedo

Range Finder principles: Runtime Range Finder Triangulation Range Finder - Sender and receiver with known position, triangulation similar to stereo principle Optical Range Finder Ultrasound Range Finder e.g.: Spot Projectors Moiré Range Finder Structured Light Range Finder Pattern (stripe) projection 1 image 2 dim + geometry => 3 dim Depth information Receiver/Sender position

Runtime Range Finder Determine sensor-object distance by measuring radiation runtime: 1. Sender (coherent light) 2. Scanning Unit 3. Receiver (light detector) 4. Phase detector Alt. Method: send light pulses => LIDAR (Light Radar), defense industry Problem: generating pulses, measuring runtime (both very short) Die Signalphaserelativ zur reference phase ist proportional zur Laufzeit. Die Signalamplitude ist proportional zur zur Oberflächenreflektion. => Lichtintensität und Range Data

Ultrasound Range Finder Used in commercial cameras (Autofocus Spot) Advantages Independent of sorrounding light, Slow speed of ray Disadvantages coarse resolution, Bad accuracy, Pointwise, scanner necessary Multiple Reflection/Echoes Applications: Obstacle Detection: e.g.: “Car parking radar” Level Measurement, silos, tanks, … Underwater ranging (sonar), ... Typ. specifications: Range: 5cm to 1-5m Accuracy: +-3mm

Spot Projection Determine sensor-object distance pointwise 1. Sender (Laser beam) 2. Scanning unit 3. Receiver (CCD Camera) Distance by triangulation Laser Tracker: [Ishii76], early systems 1968 [Forsen68]

Triangulation Range Finder Principle: Projection of a plane onto a plane -> intersection is line (stripe) Distortion of stripe gives object depth by Triangulation

Structured Light Range Finder 1. Sender (projects plane) 2. Receiver (CCD Camera) Geometry Z- direction X- direction Sensor image

1 plane -> 1 object profile To get a 3D profile: Move the object Scanning Unit for projected plane Move the Sensor Object motion by conveyor band: => synchronization: measure distance along conveyor => y-accuracy determined by distance measurement Scanning Units (z.b: rotating mirror) are rare (accurate measurement of mirror motion is hard, small inaccuracy there -> large inaccuracy in geometry Move the sensor: e.g. railways: sensor in wagon coupled to speed measurement

Stripe Projection Determine object structure by projecting multiple stripes simultaneously and subsequent triangulation 1. Sender (planes) 2. Receiver (Camera)

Line projector (z.b: LCD-640) Lamp Lens system LCD - Shutter Pattern structure Line projector (z.b: LCD-640) Focusing lens (e.g.: 150mm) Example

Pattern projection Camera: IMAG CCD, Res:750x590, f:16 mm Projected light stripes Camera: IMAG CCD, Res:750x590, f:16 mm Projector: Liquid Crystal Display (LCD 640), f: 200mm, Distance to object plane: 120cm Range Image

Moiré Range Finder 1. Sender (Projektor mit Linien) Project line structure, observe line structure through a grid 1. Sender (Projektor mit Linien) 2. Receiver (CCD Camera with line filter) Problem: identification of line ordering possible but hard, unsharp lines => inaccurate results Moiré Pattern Moiré Image

Triangulation Principle Baseline b . CCD Kamera Z • Object point

Lichtpunkttechnik Einfachste Methode zur Messung von Entfernungen: Punktweise Beleuchtung der Objektoberfläche Laser: Position auf der x-Achse : bekannter Richtungswinkel des Lasers zur Kamera : bekannter Schwenkwinkel des Lasers R: Schnittpunkt der Schwenkebene mit der optischen Achse P: zu vermessender Objektpunkt p(x,y): bekannter projizierter Objektpunkt P Z-achse: optische Achse der Kamera Es gilt für kamerazentriertes Koordinatensystem: räumlicher Fall eines projizierten Lichtpunktes

Lichtpunktstereoanalyse Kombination der Lichtpunkttechnik mit Verfahren der statischen Stereoanalyse: Laserpunkt wird an beliebiger Stelle auf das zu vermessende Objekt projiziert und mit zwei Kameras aufgenommen. Entfernungsberechnung: aus der Position des Laserpunktes analog zur statischen Stereoanalyse Vorteil gegenüber Lichtpunkttechnik: keine aufwendige Kalibrierung, da Orientierung des Laserstrahls nicht in Berechnung eingeht. Prinzipieller Aufbau für ein Verfahren nach der Lichtpunktstereoanalyse

Zur Vereinfachung steht Lichtebene senkrecht zur Referenzeben. Lichtschnittechnik 1) Projektion einer Lichtebene auf das Objekt (mittels Laser oder Projektoren) 2) Schnitt der Lichtebene mit der Objektoberfläche als Lichtstreifen sichtbar 3) Lokalisierung des Lichtstreifens mittels Kantenerkennung und Segmentierung Entfernungsberechnung: Kalibrierung: b, f, , Generierung eines Look-Up-Tables für Entfernungswerte Allgemein: Die Tiefenauflösung ist sowohl von der Auflösung des Bildsensors als auch von der Breite der erzeugten Lichtebene abhängig. 1) peak at position xo 2) left side und right side of the peal using a threshold Vt 3) center points Zur Vereinfachung steht Lichtebene senkrecht zur Referenzeben.

Gleichzeitige Projektion mehrerer Lichtschnitte Anstatt einer Lichtebene werden mehrere Lichtebenen auf das Objekt projeziert, um die Anzahl der aufzunehmenden Bilder zu reduzieren. Entfernungsberechnung: wie mit einer Lichtebene, jedoch muß jeder Lichtstreifen im Bild eindeutig identifizierbar sein. Problem: Aufgrund von Verdeckungen sind einzelne Streifen teilweise oder gar nicht im Kamerabild sichtbar -> keine eindeutige Identifikation der Lichtstreifen Anwendung: Glattheitsüberprüfung bei planaren Oberflächen ohne Tiefenwertberechnung. 1) peak at position xo 2) left side und right side of the peal using a threshold Vt 3) center points

Binärcodierte Lichtschnittechik Motivation: .) Lichtpunkt oder Lichtstreifen erfordern große Anzahl von Aufnahmen .) Mehrere projzierte Lichtmuster können nicht eindeutig identifiziert werden Codierung der Lichtmuster: Zur Unterscheidung der Lichtebenen Erzeugung zeitlich aufeinander folgender verschiedener binärcodierter Lichtmuster Vorteil: wesentlich weniger Aufnahmen für gleiche Anzahl von zu vermessenden Objektpunkten notwendig (log n) Codierung der Lichtstreifen nach Gray Code. Jede Lichtebene ist codiert jedes Pixel kann einer Lichtebene zugeordnet werden Tiefenberechnung erfolgt mit Hilfe einer Lookup Tabelle, für jede Lichtebene wird die Triangulation vorausberechnet (2d) Codierung

Tiefenberechnung für Streifenprojektor Durch die zeitliche Abfolge der Aufnahmen wird es ermöglicht, daß jeder Lichtstreifen im Kamerabild identifiziert wird. Verschiedene Lichtstreifen sind notwendig, um für jeden Bildpunkt einen zugehörigen Lichtstreifen festzustellen zu können. 1) Unterschiedlich breite Lichtstreifen werden zeitlich aufeinanderfolgend in die Szene projiziert und von der Kamera aufgenommen. 2) Für jede Aufnahme wird für jeden Bildpunkt festgestellt, ob dieser beleuchtet wird oder nicht. 3) Diese Information wird für jeden Bildpunkt und für jede Aufnahme im sog. Bit-Plane Stack abgespeichert. 4) Findet man im Bit-Plane Stack für einen Bildpunkt die Information, daß er bei den Aufnahmen z.B. hell, dunkel, dunkel, hell war (Code 1001), dann folgt daraus, daß dieser Bildpunkt vom vierten Lichtstreifen beleuchtet wird. 5) eindeutige Zuordnung „Lichtstreifen – Bildpunkt“ möglich

Abschattungen Laser erreicht Laser erreicht Oberflächenp. nicht Oberflächenpunkt keine Tiefeninformation Kamera sieht Oberflächenp. nicht keine Tiefeninformation Kamera sieht Oberflächenpunkt keine Tiefeninformation Tiefeninformation Laser Abschattung keine Kamera Abschattung keine Laser Abschattung

2 Projektoren erzeugen 2 Lichtebenen = uneindeutig Abschattungen 2 virtuelle Kameras 2 Projektoren erzeugen 2 Lichtebenen = uneindeutig

Tiefenbild bzw. Range-Image Vergleich Intensitätsbild-Tiefenbild Aufnahme eines Intensitätsbildes Aufnahme eines Tiefenbildes

Tiefenbild einer Fischdose sowie einer Zigarettenschachtel Beispiele (1) Tiefenbild einer Fischdose sowie einer Zigarettenschachtel Tiefenbild Intensitätsbild Tiefenbild Kantenbild

Tiefenbild einer Ebene und eines Spielzeug LKW's Beispiele (2) Tiefenbild einer Ebene und eines Spielzeug LKW's Ebene im KKS ungefiltert gefiltert

Beispiele (3) Tiefenbild eines Augapfels (Modell) mit Tumor Tiefenbild eines Augapfels (Modell) ohne Tumor Kantenbild eines Augapfels (Modell) mit Tumor Kantenbild eines Augapfels (Modell) ohne Tumor

Shape from Texture A cat sitting on a table edge, depth cue is the change of texture size Discrimination of depth levels by size of boxes. Depth information within texture What is texture?

Texture Principle of Texture: repetition of a basic pattern. Basic pattern not deterministic for natural objects Basic pattern approximately deterministic for man-made objects Repetition of pattern neither regular nor deterministic Only statistic regularity = uniform distribution Object shape can be recovered from geometric distortion of texture [Julesz75] Texture is not a local property, characterisitc for an area much larger than basic pattern. => Only basic shapes can be reconstructed (planes, spheres, …)

Texture Texture is the abstraction of a statistical homogenity in a part of the observer‘s field of view which contains much more information than the observer can handle. Texture is scale dependent: Many Texture elements need to be observed but must not exceed a certain maximum, such that their size is always bigger than sensor resolution.

Statistical Texture Analysis Suitable for natural textures, since they are not deterministic but follow statistical rules. First order grey value statistics: statistics of single pixels compared to pairs, triples, quadruples etc. Normalized texture histogram: grey value distribution function Disadvantage of first order statistics: insensitive against permutations => Checkerboard may have same statistics as salt‘n pepper noise. Second order grey value statistics: Distribution of neighborhood relations (Co-occurence Matrix) E.g.: relation „right of“: black-white, grey-white, white-white More suited for texture classification, because no geometrical properties are modeled.

Structural Texture Analysis For deterministic textures: Man made objects usually have deterministic textures Assumes that Texture is generated by a basic element „TEXEL“ which is repeated in a regular fashion. Perspective distortion of texels gives surface orientation/shape Characterization by invariant features (circles -> oriented ellipses)

Structural Texture Analysis Distortion of a planar circle local surface orientation Slant Tilt

2. 1. Texel Texels are not unique Different texels => identical resulting shape Exact description of texels necessary to model their distortion Simple, geometrical texels easier to handle 2. 1.

Texel Aloimonos & Swain: Shape from Shading  Shape from Texture Circle = simple texel Same problem as shading: Object border including texture determines the shape Shape reconstruction based on perspective projection => Texture is a 2D surface pattern, not a 3D property. E.g. brick wall, printed cloth Aloimonos & Swain: Shape from Shading  Shape from Texture

Shape from Texel Based on local perspective distortion Texel must be identifiable Texel must not overlap All Texels must have same spatial dimension Texel are „small„, locally planar and have a unique surface normal

Shape calculation Determine position of a plane using ist texture (slant,tilt):

Artificial exmaples using black circles Examples Tree Sunflower Audience Artificial exmaples using black circles Algorithms usable in a limited fashion on „real“ scenes.

Examples Golfball

Geometrical Scene Constraints Reconstruct shape from geometrical relations (similar to human vision). E.g.: parallel lines confine a plane Planes are oriented by their vanishing points Vanishing points and vanishing line give the plane orientation. Problem: find vanishing points

Geometrical Scene Constraints e.g. intersecting area of parallel lines, symmetry axis of arbitrary objects

Shape from Parallel Lines

Shape From Focus Recover shape of surfaces from limitied depth of view. Requires visibly rough surfaces Typical application: optical microscopy

Shape From Focus Visibly Rough Surfaces Optical roughness: the smallest spatial variations are much larger than the wavelength of incident electromagnetic wave. Visible roughness: smallest spatial variations are comparable to viewing area of discrete elements (pixels). Magnification: Multi-facet level: w1 >> wf, smooth texture Facet level: w2 ~= wf, rough texture

Shape From Focus Focused / Defocused images Focused: Defocused: object point is mapped to spot with radius => defocusing is equivalent to convolution with low pass kernel (pillbox function)

Shape From Focus Changing Focus Displacing the sensor: changes sharp region, magnification and brightness Moving the lens: changes sharp region, magnification and brightness Moving the object: changes sharp region only => Object is moved in front of static camera

Shape From Focus Overview: At facet level magnification, rough surfaces give texture-rich images A defocused image is equivalent to a low-passed image As S moves towards focused plane, its focus increases. When S is best focused, Challenges: How to measure focus? How to find best focus from finite number of measurements?

Shape From Focus Focus measure operator Purpose: Possible solution: respond to high frequency variations in image intensity within a small image area produce maximum response when image area is perfectly focused Possible solution: determine high frequency content using Fourier transform (slow) Alternative: High-pass image using Laplacian (problem with elimination) Modified Laplacian

Shape From Focus INxM … local intensity function (image window) Sum Modified Laplacian Tenengrad Focus Measure Alternatives: variance of intensities, variance of gradients INxM … local intensity function (image window)

Shape From Focus Example Infinite DOF DEM

Shape From Focus Sampling the focus measure function Consider a single image point (x,y) Focus measure F is function of depth d: F(d) Goal find Fpeak from finite number of samples F1…F8

Shape from focus Sampling the focus measure function Possibility1: find highest discrete sample

Shape from focus Sampling the focus measure function Possibility2: Gaussian interpolation Fit Gauss function to three strongest samples

Shape from X Demos Camera Calibration Shape from Stereo point triangulation Ransac plane fitting Photometric stereo Shading Illusions