Jetzt auch in der App!

Das Handbuch der Bildverarbeitung Mehr

Erweitern Sie Ihr Bildverarbeitungs Know-how

BESSER MEHR WISSEN

Profitieren Sie von der Erfahrung unserer Experten

Vision Docs - das neue Handbuch ist da

DAS NACHSCHLAGEWERK

FÜR BILDVERARBEITER

Holen Sie sich das aktuelle Handbuch! Mehr

Farbkameras

Die meisten Menschen sehen die Welt in Farbe und besitzen einen Farbfernseher. Aus diesen Gründen wird oft erwartet, dass jedes Bild, das auf einer Anzeige erscheint, ebenfalls in Farbe dargestellt wird.

Schwarzweißbilder werden deshalb gewissermaßen als minderwertig angesehen. In Bildverarbeitungsanwendungen sind Farbinformationen jedoch oft nicht notwendig, da die Algorithmen häufig kontrast basiert arbeiten. Der Einsatz einer Farbkamera kann sogar Nachteile mit sich bringen, da die räumliche Auflösung sich im Allgemeinen verringert und die Übertragungsbandbreite, die CPU-Last und die Kosten steigen.

Selbst bei Anwendungen, für die Farbinformationen entscheidend sind, beispielsweise in der Druckindustrie, ist möglicherweise der Einsatz eines geeigneten Farbfilters oder einer monochromatischen Beleuchtung die einfachere und stabilere Lösung. Es gibt jedoch auch viele Anwendungen, bei denen Farben exakt bestimmt oder Farbnuancen unterschieden werden müssen. Um solche Anwendungen adäquat lösen zu können ist es wichtig, die vielfältigen Methoden, die im Bereich der Kameratechnik eingesetzt werden, um Farbinformationen auf einen Sensor abzubilden, im Detail zu kennen.

1-Chip-Farbkameras

Die in der Bildverarbeitung am häufigsten eingesetzten Farbkameras verfügen über einen einzelnen CCD- oder CMOS-Sensor mit Farbfiltern über jedem Pixel. Diese sind üblicherweise rot, grün und blau und gemäß dem nachfolgend dargestellten Muster, dem sogenannten Bayer Filter Array, angeordnet. Die Anzahl der grünen Pixel ist doppelt so groß wie die der blauen und roten, wodurch die höhere Empfindlichkeit und Auflösung des menschlichen Auges gegenüber grünem Licht nachempfunden wird

Um ein auswertbares Vollfarbbild zu erhalten, müssen die Rot-, Grün- und Blauwerte für jedes Pixel mittels Algorithmik interpoliert werden. Es existieren diverse Algorithmen für die Interpolation, die sich letztendlich nur darin unterscheiden, wie die Farbinformationen gewonnen werden.

So entsteht zwar ein Vollfarbbild, aber der Umstand, dass nur je ein Viertel der Pixel rot und blau und die andere Hälfte grün ist, geht zu Lasten einer reduzierten Ortsauflösung

Hier sei daran erinnert, dass weißes Licht ein volles Spektrum von Licht enthält, so dass, wenn es verwendet wird, um einen schwarzen Punkt auf einem weißen Hintergrund zu beleuchten, alle Pixel den Übergang erkennen und die volle räumliche Auflösung des Sensors beibehalten wird.

Bei einem gewöhnlichen Farbmosaiksensor müssen für jedes Pixel zwei der RGB-Werte auf Basis der Werte benachbarter Pixel interpoliert werden, was zu Problemen führen kann. Diese treten an beiden Rändern des Sensors und entlang stark definierter Ränder in einem Bild auf, wenn nicht genügend Farbinformationen für die Durchführung der Interpolation vorhanden sind. Bildartefakte sind oft die Folge. Die Verwendung von 3-Chip-Prismenkameras mit geeigneter Optik lösen dieses Problem.

Eine Bayer-to-RGB-Umwandlung kann in der Kamera selbst, auf dem Frame Grabber oder im Host-PC erfolgen. Sofern die Umwandlung in der Kamera erfolgt, verdreifacht sich die zur Übertragung und Speicherung benötigte Bandbreite. Diese ist geringer, wenn das Farbformat YUV4:2:2 verwendet wird. Falls die Kamera Bayer-Rohdaten überträgt, um Bandbreite zu sparen, impliziert dies zusätzlich Flexibilität bei der Wahl des Interpolationsalgorithmus.

Da die Bayer-to-RGB-Umwandlung sehr CPU-intensiv ist, kann diese alternativ auf dem FPGA (Field Program mable Gate Array) eines Frame Grabbers gerechnet werden. Der Vorteil einer auf einem Sensor bzw. Chip basierenden Farbkamera ist, dass die Kameraelektronik im Vergleich zu der einer Monochromkamera keiner Anpassung bedarf und nur die Modifikation des Chips mit Farbfiltern vorzunehmen ist, woraus nur geringe Mehrkosten resultieren.

Als Alternative sind weitere Farbfilteranordnungen wie beispielsweise CYGM-Filter (Cyan, Gelb, Grün, Magenta), auch komplementäre Farbfilter genannt, erhältlich. Diese werden z.B. in CCTV-Kameras eingesetzt, da die Filter lichtdurchlässiger sind und somit die Empfindlichkeit bei schlechter Beleuchtung erhöht wird.

3-Chip-Farbkameras

Eine weitere Möglichkeit zur Erzeugung von Vollfarbbildern ist die Verwendung eines Prismas, das weißes Licht in rote, grüne und blaue Bestandteile aufsplittet und auf verschiedene Sensoren abbildet. Für Anwendungen, die eine exakte Farbmessung und nicht nur eine Unterscheidung zwischen Farben erfordern, empfiehlt es sich, 3-ChipKameras einzusetzen.

Der offensichtliche Vorteil dieser Methode gegenüber 1-Chip-Kameras ist die volle Ortsauflösung für jeden Farbkanal bei zusätzlicher Verbesserung von Farbtreue und Genauigkeit. Nachteilig hingegen ist, dass 3-Chip-Farbkameras zwangsläufig größer und teurer sind. Der höhere Preis ist einerseits durch den höheren Materialaufwand, drei Sensoren und ein Prisma, und andererseits durch die nötige hohe Präzision bei der Ausrichtung der Sensoren zum Prisma bedingt. Weiterhin sind spezielle farbkorrigierte Objektive nötig, da ansonsten Farbsäume die nachfolgende Auswertung erschweren.

Bei den meisten 3-Chip-Kameras für die Bildverarbeitung sind die Pixel aneinander ausgerichtet, d.h. dass jedes Pixel in den drei Farbebenen den gleichen Punkt am Objekt abbildet. Das unterscheidet sie z.B. von Mosaik-Filtern (Bayer), bei denen die unterschiedlichen Farben auch unterschiedliche Punkte am Objekt abbilden. Dies ist besonders wichtig für hochgenaue Messanwendungen. In nicht speziell für die industrielle Bildverarbeitung entwickelten Kameras sind die Sensoren räumlich, in eine Richtung (z.B. x) um 1/2 Pixel versetzt angeordnet. Dies erweckt den Eindruck einer höheren Ortsauflösung, sofern das Bild auf einem Monitor oder Fernseher betrachtet wird. Für Bildverarbeitungsanwendungen, bei denen eine Genauigkeit im Subpixelbereich erforderlich ist, sollten jedoch aneinander ausgerichtete Kameras eingesetzt werden.

Mehrschichtfarbsensortechnik

Mehrschichtfarbsensoren (Multi-Layered Colour Imaging Sensors) nutzen für die Erfassung von Farbbildern eine grundsätzlich andere Methode. Dieser Sensortyp weist eine Schichtstruktur auf, bei der jedes Bildelement auf dem Sensor-Array über lichtempfindliche Rezeptoren für alle drei Grundfarben verfügt, die jeweils, wie im Bild unten aufgezeigt, übereinander gelegt sind.

Es sollte jedoch beachtet werden, dass die Mehrschichtsensortechnologie noch nicht ausgereift ist und eine Reihe von Problemen aufweist. Auf der untersten Schicht (rot) kann es zu einer Elektronendiffusion mit einhergehendem Schärfeverlust kommen. Ein weiteres mögliches Problem ist das Farbrauschen, ausgelöst durch ein Übersprechen zwischen den lichtempfindlichen Schichten. Da die drei farbempfindlichen Schichten übereinander angeordnet sind, muss die Ausgabe geprüft werden, um einen Weißabgleich des Bildes vorzunehmen. Zusätzlich kann sich die Farbbalance abhängig von der Intensität des einfallenden Lichtes verändern.