Jetzt auch in der App!

Das Handbuch der Bildverarbeitung Mehr

Erweitern Sie Ihr Bildverarbeitungs Know-how

BESSER MEHR WISSEN

Profitieren Sie von der Erfahrung unserer Experten

Vision Docs - das neue Handbuch ist da

DAS NACHSCHLAGEWERK

FÜR BILDVERARBEITER

Holen Sie sich das aktuelle Handbuch! Mehr

3D-Bildverarbeitung – Grundlagen und Herausforderungen

3D-Bildverarbeitung wird heute vor allem für die exakte Inspektion und Vermessung von komplexen 3D-Freiformflächen benötigt, wird aber für immer neue Anwendungsfälle erschlossen.

Die grundlegenden 3D-Techniken lassen sich aufteilen in das zeitbasierte Time- of-Flight-Verfahren einerseits und Techniken, die auf geometrischen, winkelbasierten Berechnungen beruhen andererseits: Laser-Triangulation, Stereo-Vision, Streifenprojektion, Shape-from-Shading und Weißlichtinterferometrie.

Lasertriangulation

Bei der Lasertriangulation wird das zu vermessende Prüfobjekt meist von einem Linienlaser beleuchtet, der eine scharfe Lichtlinie erzeugt, unter dem der Prüfling hindurchgeführt wird. Eine in einem bekannten Winkel zur Laserbeleuchtung angeordnete Kamera nimmt Bilder der Laserlinie auf, die aufgrund der Objektgeometrie eine Verformung erfährt. So lassen sich die Abweichungen der Laserlinie zu jedem Zeitpunkt messen, zu dem das Objekt den Laserstrahl passiert. Während dieses Vorgangs werden - ähnlich wie bei einer Zeilenkamera, bei der ein Bild aus zahlreichen Einzellinien zusammengesetzt wird – mehrere Höhenprofile erstellt, aus denen ein dreidimensionales Bild generiert wird. Für jeden Punkt entlang des Profils wird somit die Abweichung vom unverformten Laserstrahl als Höheninformation genutzt, um ein 3D-Bild zu erhalten.

Diese Höheninformationen werden in einer so genannten Range Map oder 2,5D-Bild als Grauwerte angezeigt und farbcodiert. Einige 3D-Kameras berechnen diese Informationen bereits intern, geben dann komplette 3D-Bilder aus und sparen so die Verarbeitung auf dem Host-Rechner. Bei anderen Systemen erfolgt die Umrechnung der Range Maps mit Hilfe eines angeschlossenen PC.

Erst nach der Umrechnung der Range Maps in echte 3D-Punktwolken (Cloud of points, COPs) ist ein Ausgleich von Positions- und Rotationsabweichungen der Objekte in allen sechs Freiheitsgraden möglich. Somit ist es nicht mehr notwendig, die Prüfobjekte hochgenau mechanisch auszurichten oder zuzuführen. Diese Vorgehensweise reduziert den mechanischen Aufwand zur lagegenauen Zuführung deutlich und garantiert einen hohen Durchsatz bei einer 100%igen Überprüfung aller Objekte.

Eine wesentliche Voraussetzung für die Durchführbarkeit von Lasertriangulationsverfahren besteht darin, dass sich das Prüfobjekt relativ zu Kamera und Laserbeleuchtung bewegt.

Zu den möglichen Problemen bei Lasertriangulationsverfahren zählen die so genannten Abschattungen: Je nach Oberflächenform besteht die Gefahr, dass die Laserlinie von höheren Objektmerkmalen blockiert wird und somit die exakten Höheninformationen der dahinter liegenden Strukturen nicht mehr erkannt werden können. Mögliche Fehler an solchen abgeschatteten Stellen sind somit nicht mehr erkennbar.

Dieses Problem kann gelöst werden, indem die Laserlinie von mehreren Kameras aus unterschiedlichen Winkeln betrachtet wird und die unterschiedlichen Datensätze dann zu einem Höhenprofilbild zusammengefasst werden. Alternativ dazu kann das Objekt auch mit zwei Lasern von beiden Seiten beleuchtet werden: Eine Kamera nimmt die beiden Laserlinien in zwei getrennten AOIs auf und berechnet für beide AOIs Höhenbilder, die dann fusioniert werden. Objektdaten fehlen bei Anwendung dieser beiden Verfahren somit nur dann, wenn sie in keinem der Eingangsdatensätze vorhanden sind. Eine derartige Zusammenfassung von Daten aus mehreren Kameras zählt heute zu den Standardaufgaben für moderne Software-Werkzeuge wie z.B. Merge 3D aus der Bibliothek Common Vision Blox (CVB) von STEMMER IMAGING oder 3DExpress von AQSense.

Stereo-Vision

Beim geometrischen Verfahren der Stereo-Vision werden in Analogie zum Augenpaar des Menschen zwei Kameras genutzt, um zwei 2D-Bilder eines Objekts aufzunehmen. Mit einem Triangulationsverfahren ist es anschließend möglich, ein dreidimensionales Bild aus den beiden 2D-Bildern zu errechnen.

Auch diese Technologie erlaubt eine Bewegung der zu prüfenden Objekte während der Bildaufnahme.

Voraussetzung dafür, jeden Objektpunkt des Prüflings eindeutig je einem Pixel in den beiden 2D-Bildern zuordnen zu können, sind allerdings Referenzmarken oder zufällige Muster bzw. genügend natürliche Textur auf dem Objekt. Im Produktionsumfeld muss deshalb eine sehr genaue Eignungsprüfung vorgenommen werden. In der Koordinatenmesstechnik, der 3D-Vermessung von Objekten und Arbeitsräumen für Applikationen mit Industrie-, Service- oder mobilen Robotersystemen sowie bei der 3D-Visualisierung von für den Menschen gefährlichen oder unzugänglichen Arbeitsräumen ist die Stereo-Vision als Verfahren der 3D-Bildverarbeitung hingegen häufig anzutreffen.

Streifenprojektion

Die Streifenprojektion beruht ebenfalls auf dem Triangulationsverfahren. Im Gegensatz zu Laser-Triangulation und Stereo-Vision erfordert die 3D- Bildverarbeitung auf Basis der Streifenprojektion allerdings ruhende Objekte. Die Messungen sind jedoch – mit Messzeiten von einigen Sekunden oder sogar nur Bruchteilen einer Sekunde – extrem schnell.

Diese Technologie arbeitet mit codiertem Licht, das z.B. mit Hilfe von hochauflösenden Mikrospiegel-Displays (DLP-Projektoren) auf das Objekt gestrahlt wird. Das Licht wird streifenförmig auf das Objekt projiziert und erzeugt aufgrund der Höhenstruktur des Objekts ein Lichtmuster, das von einer in bekanntem Winkel angeordneten Kamera aufgenommen wird. Aus einer Sequenz von 2D-Streifenbildern kann dann ein 3D-Bild errechnet werden.

Im Gegensatz zu einem Laserscanner, bei dem die maximale Lichtintensität über mehrere Kamerapixel hinweg ausgewertet wird, erlaubt die Streifenprojektion die Auswertung der Lichtintensität in jedem einzelnen Kamerapixel. Im Vergleich zu Laserscannern verbessert sich die maximal erreichbare Höhenauflösung von 3D-Bildverarbeitungssystemen mit Streifenprojektion um mehr als den Faktor 2 und erlaubt laut Dr. Gottfried Frankowski – Geschäftsführer der GFMesstechnik GmbH und einer der Väter dieser Technologie – Höhenauflösungen bezogen auf die Abtastlänge im Bereich von größer 1 : 10.000.

Die Streifenprojektion ist dank ihrer hohen Geschwindigkeit bei gleichzeitiger Erfassung großer Messvolumina prädestiniert für industrielle Kontrollaufgaben wie Formabweichung, Vollständigkeit, Lage von Bauteilen und Volumenmessung.

Prinzip der phasenmessenden Streifenprojektion

Shape-from-Shading

Bei der Shape-from-Shading-Methode werden drei oder vier Grauwertbilder einer Oberfläche bei Beleuchtung aus verschiedenen Raumrichtungen aufgenommen. Anhand der Unterschiede in den Grauwerten (Schattierungen) werden Bilder der Oberfläche errechnet, die sowohl die räumliche Struktur als auch die Textur widerspiegeln. Mit dem Shape-from-Shading-Verfahren erhält man allerdings keine expliziten Höhenwerte, sondern nur Informationen über die Neigung (erste räumliche Ableitung der Höhe) und Krümmung (zweite räumliche Ableitung der Höhe) der Oberfläche. Deswegen eignet sich diese Technik hauptsächlich für die Oberflächeninspektion.

Der große Vorteil des Shape-from-Shading besteht darin, dass sich selbst bei stark spiegelnden Oberflächen Merkmale der Topologie von denen der Textur (Helligkeit) klar trennen lassen und hochaufgelöste Intensitätsbilder erzeugt werden. Dadurch können bei der Oberflächeninspektion selbst kleinste Fehler sicher und präzise erkannt werden.

War die Shape-from-Shading-Technik bisher auf ruhende Objekte beschränkt, kann sie durch die Verwendung von Zeilenkameras nun auch für bewegte Objekte (linearer Vorschub oder drehende Abwicklung) genutzt werden.

Weißlichtinterferometrie

Bei der Weißlichtinterferometrie wird ein Objekt mit weißem Licht bestrahlt und mit Hilfe eines Strahlteilers so aufgespaltet, dass ein Teil des Lichts auf einen Referenzspiegel, der andere auf das Objekt selbst trifft. Die beiden Lichtstrahlen werden dann reflektiert und treffen in einer Monochromkamera wieder aufeinander. Durch vertikales Durchscannen des Objekts erhält man ein 2D-Interferogramm, anhand dessen dann ein 3D-Bild errechnet werden kann.

Die Weißlichtinterferometrie eignet sich, um die Rauheit oder die Topographie einer Oberfläche zu überprüfen. Sie kann ebenso verwendet werden, um die Dicke transparenter Schichten zu bestimmen. Sie liefert sehr hohe Auflösungen, kann aber keine hohen Geschwindigkeiten erzielen und ist somit für die industrielle 3D-Bildverarbeitung nur sehr bedingt einsetzbar.

Time of Flight

Time-of-Flight-Kameras sind 3D-Kamerasysteme, die mit dem Laufzeitverfahren (englisch: Time of Flight, ToF) Distanzen messen. Das physikalische Prinzip dahinter: Mittels eines Lichtpulses wird die Szene ausgeleuchtet. Für jeden Bildpunkt misst eine Kamera die Zeit, die das Licht bis zum Objekt und wieder zurück benötigt. Da die gemessene Zeit direkt proportional zur Distanz ist, liefert die Kamera somit für jeden Bildpunkt die Entfernung des darauf abgebildeten Objekts.

Mit dieser Technik kann ein Entfernungsbereich von einigen wenigen bis hin zu ca. 40 Metern mit bis zu 100 Bildern pro Sekunde abgedeckt werden, wobei die Distanzauflösung bei etwa 5 bis 10 mm liegt. Die lateralen Auflösungen können bis etwa 200 x 200 Pixel betragen. Höhere Auflösungen bis zu 1.3 Megapixel werden bereits entwickelt.

Im industriellen Umfeld eignen sich ToF-Systeme aufgrund ihrer relativ geringen Auflösung nur für spezielle Anwendungen: So finden sie z.B. in der Logistikbranche zur Depalettierung oder zur Füllstandkontrolle von Regalen und Paletten Verwendung. Im Verkehrs- und Transportwesen werden sie bei der Verkehrszählung und -erkennung eingesetzt.

Bildformate

Ein Rohdatenformat der 3D-Bildverarbeitung, das noch keine kalibrierten Daten enthält, ist die pixelbasierte Range Map. Sie wird auch als 2,5D-Bild bezeichnet, da sie relative Höhenunterschiede zwar sichtbar macht, aber keine metrisch korrekten Höhenwerte ohne perspektivische Verzeichnung wiedergeben kann.

Durch Kalibrierung kann die Range Map in eine Punktwolke (Cloud of Points, COP) überführt werden. Die Verwendung von Punktwolken macht das Sechsachs-Matching von Master- und Prüflingsteilen erst möglich und die nachfolgende Datenanalyse ist erheblich einfacher.

Komponenten für die 3D-Bildverarbeitung

In den vergangenen Jahren hat sich das Angebot an Hard- und Software-Komponenten für die 3D-Bildverarbeitung deutlich erweitert. So zählen Laserbeleuchtungen, wie sie z.B. das Freiburger Unternehmen Z-Laser Optoelektronik produziert, zu den am häufigsten eingesetzten Beleuchtungsprodukten für die Laser-Triangulation. Für Time-of-Flight-Lösungen werden typischerweise Infrarotbeleuchtungen eingesetzt.

Die Auswahl an 3D-Kameras mit unterschiedlichen Basis-Technologien hat ebenfalls stark zugenommen. Als Beispiel sind hier die 3D-Kameras von Automation Technology (AT) zu nennen, die als leistungsfähiges „Auge“ für Laser-Triangulationssysteme im High-End-Bereich zur Verfügung stehen.

Die Produktreihe namens Gocator des kanadischen Herstellers LMI arbeitet ebenfalls mit dem Laser-Triangulationsverfahren und erlaubt einen schnellen Einstieg in die 3D-Vermessung, da diese intelligenten 3D-Sensoren sehr einfach und ohne Programmierung mit Hilfe eines intuitiven Web-Interfaces eingerichtet und in Betrieb genommen werden können. Sie eignen sich für grundlegende 3D-Vermessungen ohne weiterreichende komplexe Anforderungen.

Im Bereich der Streifenprojektion hat der Mannheimer Hersteller VRmagic mit dem AreaScan3D eine aufsehenerregende 3D-Kamera auf den Markt gebracht. Diese 3D-Flächenkamera eignet sich zur Lösung von Aufgaben zur Lage- und Vollständigkeitskontrolle sowie für Soll-Ist-Vergleiche speziell von komplexen Freiformkörpern und arbeitet auf Basis der modernen Streifenprojektion mit DLP-Projektoren, die sich zu einer kompakten Technologie mit hohem Potential entwickelt haben. Auch die Gocator 3000er-Serie von LMI basiert auf dem Streifenprojektionsverfahren und lässt 3D-Auswertungen direkt in der intelligenten Kamera zu.

Für Shape-from-Shading-Anwendungen stellt das Trevista Surface-System eine vollständige Lösung mit Dombeleuchtung und Industrie-PC zur Verfügung. Anhand von topografischen Reliefbildern und Texturbildern wird hier eine optische 3D-Formerfassung erzielt, die Fehler gerade auch auf glänzenden Flächen deutlich sichtbar macht. Video: Überprüfung glänzender Oberflächen mit trevista Surface

3D-Anwendungen erfordern oft qualitativ hochwertigere Optiken als 2D-Anwendungen. Namhafte Hersteller führen mittlerweile Optiken im Programm, die den hohen Anforderungen der 3D-Bildverarbeitung gerecht werden.

Ein wesentliches Kriterium für erfolgreiche 3D-Anwendungen stellt nicht zuletzt die eingesetzte Software dar. Sie muss eine schnelle und genaue Erkennung von bereits geringfügigen 3D-Maßabweichungen in Echtzeit ermöglichen, um eine schnelle Gut-/Schlecht-Entscheidung über das geprüfte Objekt treffen zu können. Common Vision Blox von STEMMER IMAGING zählt hier sicher zu den bekanntesten und leistungsfähigsten Bibliotheken mit Werkzeugen für die 3D-Bildverarbeitung.

Mehr zu diesem Thema erfahren Sie in unserem Handbuch der Bildverarbeitung. Fordern Sie es an! Kostenlos!