EIN VOLLER ERFOLG >

Technologieforum der Bildverarbeitung 2017

in Unterschleißheim

Mehr

Technologieforum Bildverarbeitung 2017 - Vortragsübersicht und Zeitplan

Hier finden Sie einen Überblick zu allen angebotenen Vorträgen des Technologieforums Bildverarbeitung 2017 am 17./18. Oktober in Unterschleissheim.

Stellen Sie Ihr Vortragsprogramm aus unterschiedlichen Blöcken für die beiden Veranstaltungstage einfach individuell zusammen.


ZEITPLAN


DE = Vortrag in deutscher Sprache | EN = Vortrag in englischer Sprache

17. Oktober 2017

10:30-10:55
11:00-11:25
11:30-11:55
12:00-13:25
Mittagspause
13:30-13:55
14:00-14:25
14:30-14:55
15:00-15:40
Kaffeepause
15:45-16:10
16:15-16:40
16:45-17:10
18:30
Abendveranstaltung

18. Oktober 2017

9:00-9:25
9:30-9:55
10:00-10:25
10:30-11:10
Kaffeepause
11:15-11:40
11:45-12:10
12:15-12:40
12:45-14:10
Mittagspause
14:15-14:40
14:45-15:10
15:15-15:40

ALLE VORTRÄGE IM ÜBERBLICK


Fast machine vision solution development for IIoT-based smart factories

Adlink

17.10. 16:15-16:40 | 18.10. 12:15-12:40 | in englischer Sprache

Referent: Alex Liang, Adlink Technology Inc.

In the arena of manufacturing, emerging Internet of Things (IoT) technology has ushered in the Industry 4.0 Initiative, migrating from conventional automated production to IoT-based intelligent automation, replacing semi-automated or standalone automatic machining with network-connected processes based on M2M (machine to machine) and M2P (machine to person) communication. This, in combination with corporate information systems and analytics, creates endless possibilities for the smart factory model.

As the IIoT-based smart factory initiative encourages manufacturers to actively implement smart automation, machine vision has become indispensable to the quality control of automated production. A solution providing fast and easy development of machine vision applications is a key factor in empowering IIoT-based smart factories.

ASIC – für die Entwicklung von Bildverarbeitungskameras entdeckt

Allied Vision

17.10. 10:30-10:55 | 18.10. 10:00-10:25 | in deutscher Sprache

Referent: Jochen Braun, Allied Vision Technologies GmbH

Bevor die ALVIUM-Technologie entwickelt wurde, zogen alle Bildverarbeitungskameras ihre Intelligenz aus FPGAs. ASICs werden sehr häufig in elektronischen Geräten verwendet. Warum aber bisher noch nie in Bildverarbeitungskameras?

Dieser Vortrag erläutert den Unterschied zwischen FPGAs und ASICs und geht detailliert auf die Vor- und Nachteile beider Technologien in Bezug auf die Entwicklung und Herstellung von Bildverarbeitungskameras ein. Echtdaten von verschiedenen Kameras veranschaulichen die Unterschiede in praktischen Anwendungsbeispielen.

MIPI CSI-2 – Eine neue Kameraschnittstelle für Embedded Bildverarbeitungssysteme

Allied Vision

17.10. 13:30-13:55 | 18.10. 12:15-12:40 | in deutscher Sprache

Referent: Jochen Braun, Allied Vision Technologies GmbH

Vor 2017 existierten noch keine Bildverarbeitungskameras mit MIPI CSI-2-Schnittstelle und viele Anwendungen wurden erfolgreich mit den etablierten Schittstellen (GigE, USB3 etc.) gelöst. Warum also brauchen wir eine neue Schnittstelle? Woher kommt diese „neue“ Schnittstelle? Welche Vorteile bietet sie? Für welche Anwendungen eignet sie sich? Wer sollte sie verwenden und wer nicht?

Diese Präsentation bietet neben der Einführung in die MIPI CSI-2-Technologie einen Vergleich mit den anderen gängigen Bildverarbeitungsschnittstellen und zeigt die Verbreitung von CSI-2 in Embedded-Bildverarbeitungskarten. Desweiteren werden die technologischen Aspekte ihrer Entwicklung erklärt, um Anwendern die Entscheidung für den Einsatz dieser Schnittstellentechnologie in ihren zukünftigen Systemen zu erleichtern.

Schnelle und flexible Bildsensoren eröffnen neue Anwendungsgebiete in der Inline-Inspektion

AIT Austrian Institute of Technology GmbH

17.10. 11:00-11:25 | 18.10. 12:15-12:40 | in deutscher Sprache

Referent: Ernst Bodenstorfer, AIT Austrian Institute of Technology GmbH

Heute sollen optische Oberflächeninspektionssysteme eine steigende Vielfalt von physikalischen Eigenschaften erfassen, bewerten, messen und klassifizieren. Beispiele sind das Erfassen von 3D Oberflächenmerkmalen, hyperspektrale Bildverarbeitung für robustere Materialklassifikation, Scannen von Oberflächen aus Materialien mit speziellen bidirektionalen Reflexionseigenschaften wie z.B. glänzende oder halbtransparente Oberflächen, Oberflächen mit holographischen Effekten oder Oberflächen mit richtungsabhängigen Farbeffekten.

Um zunehmend mehr Oberflächeneigenschaften bei wachsenden Geschwindigkeits- und Echtzeitanforderungen erfassen zu können, müssen Bildsensoren schneller und flexibler werden. Der Fokus des Vortrags liegt auf den neuartigen Anwendungen, die durch eine schnelle und flexible Multi-Line-Scan Technologie ermöglicht werden.

Industrie 4.0 - Kommunikation über OPC UA (Standardisierte Mechanismen für Konfiguration, Diagnose und Datenaustausch)

ascolab GmbH

17.10. 14:00-14:25 | 18.10. 9:00-9:25 | in deutscher Sprache

Referent: Uwe Steinkrauss, Ascolab GmbH

Open Platform Communications Unified Architecture (OPC UA) ist ein neuer Schnittstellenstandard für das Zukunftsprojekt Industrie 4.0. Im Gegensatz zu anderen Standards liegt der Fokus bei OPC UA darauf, neue Verbindungen zwischen bisher getrennten Ebenen zu schaffen und damit die Kommunikation in die Vertikale zu erweitern. Das bedeutet, dass nun auch Einheiten aus höherliegenden Schichten der Automatisierungspyramiden mit Bildverarbeitungssystemen kommunizieren können.

So können abstrakte Ergebnisse wie auch Rohdaten an SPS, MES oder ERP übertragen werden. Im Gegenzug lassen sich so wiederum Bildverarbeitungssysteme konfigurieren und steuern. Aktuell nutzen Bildverarbeitungssysteme viele verschiedene proprietäre Schnittstellen, was die Komplexität und Entwicklungskosten erhöht. Eine systemübergreifende gemeinsame Schnittstelle würde die Fusion von Bildverarbeitungssystemen mit weiteren Sensoren erleichtern.

Dieses Vortrag geht auf die Vorteile von OPC UA für die Bildverarbeitung ein, stellt mögliche Anwendungen vor und bietet eine Aussicht auf komplexere Szenarien.

Optimale Auslegung von 3D-Lasertriangulation

Automation Technology

17.10. 14:00-14:25 | 18.10. 9:30-9:55 | in deutscher Sprache

Referent: Dr. Athinodoros Klipfel, Automation Technology

Das Messprinzip der 3D-Lasertriangulation wird immer mehr von Systemintegratoren und OEMs bei der Entwicklung von industriellen Inspektionssystemen eingesetzt. Dabei stellt sich die Frage der optimalen Auslegung des Scan-Setups zur Erfüllung der Applikationsanforderungen.

Der Vortrag stellt eine kurze Leitlinie für die Auswahl von Komponenten (Kamera, Objektiv, Laser), die Einrichtung der optimalen Geometrie (Triangulationswinkel, Arbeitsabstand), die Verwendung des passenden Algorithmus zur 3D-Liniendetektion im Kamerabild und die Schätzung der 3D-Scan-Eigenschaften wie die Präzision und Profilgeschwindigkeit dar. Themen wie die Verwendung von Scheimpflug-Adaptern, die Wahl der Laser-Wellenlänge und die Kalibrierung des 3D-Setups werden diskutiert. Darüber hinaus werden die 3D-Kompaktsensoren als Alternative zum diskreten Kamera-Laser-Triangulationsaufbau präsentiert und deren Merkmale verglichen.

Mustergültige Abnahme von Bildverarbeitungssystemen – Validierung als neue Erfolgsmethode

attentra GmbH

17.10. 14:00-14:25 | 18.10. 11:45-12:10 | in deutscher Sprache

Referent: Christian Vollrath, Attentra GmbH

Bildverarbeitungssysteme finden in modernen Fertigungen immer häufiger Verwendung. Doch wie lässt sich ein Bildverarbeitungssystem korrekt validieren? Wie bestimmt man die Prozessfähigkeit bei einem nicht messenden optischen System, beispielsweise wenn der Verbau einer Variante eines Bauteils überprüft werden soll?

Der einfache Missbrauchstest (Kreuztest), wie er häufig gefordert wird, ist ein denkbarer Ansatzpunkt, jedoch bleiben dabei statistische Einflussfaktoren wie schwankende Werkstoffbeschaffenheit unbeachtet. In diesem Vortrag soll zu diesem Thema ein erster Denkanstoß geliefert werden, ohne dabei zu tief in die statistische Mathematik einzudringen.

Herausforderungen beim Einsatz von Gehäuse- und Montagelösungen für Bildverarbeitungskomponenten in verschiedenen Industriebereichen

autoVimation

17.10. 16:45-17:10 | 18.10. 14:15-14:40 | in deutscher Sprache

Referent: Peter Neuhaus, Autovimation GmbH

Die Bildverarbeitung erobert immer neue Einsatzbereiche die erhöhte spezifische Anforderungen an den Schutz von Kameras, Beleuchtungen, Laser und andere Komponenten stellen: Einsatzgebiete in der Automobilindustrie, Glas-, Metall- und Papierindustrie, Nahrungsmittelindustrie, Pharma, Medizin, Reinraum, Sport, Unterhaltung Verkehrstechnik oder Solarindustrie, alle Einsatzgebiete stellen unterschiedlichste Anforderungen.

Dieser Vortrag diskutiert die Herausforderungen der Bildverarbeitung in verschiedenen Branchen und stellt spezifische Lösungen vor, mit denen alle BV-Komponenten in unterschiedlichsten Industrien installiert und technisch sicher sowie im Einklang mit den gesetzlichen Bestimmungen betrieben werden können.

Digitalisierung in der Praxis

CANCOM

Teil 1 | 17.10. 16:15-16:40 | 18.10. 10:00-10:25 | in deutscher Sprache
Teil 2 | 17.10. 16:45-17:10 | 18.10. 11:15-11:40 | in deutscher Sprache

Referent: Werner Schwarz, CANCOM SE

Modulare IoT Bausteine - vom Intelligent Edge zu IoT Plattformen

Dieser Vortrag beschreibt welche IoT Bausteine zur Digitalisierung unterschiedlicher Unternehmensbereiche notwendig sind und wie diese entlang einer individuellen Digitalisierungs-Roadmap schrittweise eingeführt werden können.

Folgende Themen werden behandelt:

  • IoT Bausteine – Schritt für Schritt zur eigenen Digitalisierungs-Roadmap
  • IoT Edge Computing – IoT, Bild und Video Daten erheben & konsolidieren
  • IoT Netzwerk & Security – Konnektivität & Sicherheit als Basis der Digitalisierung
  • IoT Plattform – Agilität, Innovation & neue Business Modelle
  • IoT Praxisbeispiele

Getting the best image for your vision application with computational imaging

CCS

17.10. 10:30-10:55 | 18.10. 9:00-9:25 | in englischer Sprache

Referent: Steve Kinney, CCS Europe N.V.

By creating an output image focused on the image properties that are most important to a particular machine vision task, computational imaging (CI) offers powerful advantages over traditional one shot imaging. Relying on data extracted and computed from a series of input images captured under different lighting or optical conditions, computational imaging techniques outperform traditional image acquisition.

This presentation covers six practical examples of CI solutions for machine vision applications, including photometric stereo (also known as shape from shading), super-resolution colour, high dynamic range (HDR), extended depth of field (EDOF), bright field/dark field, and multi-spectral imaging. CCS computational imaging solutions simplify the hardware, timing and acquisition to easily bring the benefits of CI to any application.

The most underrated component in selecting an interface….the cable!

CEI

17.10. 15:45-16:10 | 18.10. 14:45-15:10 | in englischer Sprache

Referent: Steve Mott, CEI Components Express Inc.

How to know when and why you are choosing the correct interface standard for your application. Understand the important limiting factors for your proposed vision system.

Das neue, einheitliche EMVA 1288 Release 3.1 Kameradatenblatt: zuverlässig, schnell und flexibel Kameras vergleichen

EMVA 1288

17.10. 16:45-17:10 | 18.10. 14:15-14:40 | in deutscher Sprache

Referent: Prof. Dr. Bernd Jähne, EMVA 1288 Working Group

Die wichtigste Neuerung der Release 3.1 des weltweit bewährten und benutzten Standards 1288 der European Machine Vision Association (EMVA) ist ein einheitliches Datenblatt, das auf einer Seite alle wesentliche Informationen zu einer Kamera zusammenfasst.

In diesem Vortrag wird das neue Datenblatt erläutert und mit einer Reihe praktischer Beispiele anschaulich gezeigt, wie sich damit flexibel die beste Kamera für verschiedene Anwendungsszenarien finden lässt. Im Ausblick wird dargestellt, welche Erweiterungen des Standards in Arbeit sind: „shutter efficiency“ und die Anbindung der Kamera an die Optik.

Farbidentifikation, Farbquantifizierung und hyperspektrale Bildverarbeitung - Inspektion in VIS und NIR

European Imaging Academy

17.10. 11:30-11:55 | 18.10. 11:15-11:40 | in deutscher Sprache

Referent: Lars Fermum, STEMMER IMAGING GmbH

Der Vortrag beschäftigt sich mit den Grundlagen und Technologien zur farblichen Unterscheidung von Objekten. Ausgehend von einfachen Farberkennungen mit konventionellen Farbkameras und Auswertungen im RGB-Farbraum, werden die Vorzüge anderer Methoden, wie der HSV-Farbraum oder die spektrale Quantifizierung im CIE XYZ-Farbraum vorgestellt.

Wie nimmt der Mensch Farben und Helligkeiten wahr und was ist Farbmetamerie? Welche Erkennungsmöglichkeiten bieten RBG-Farbkameras, Multi- und Hyperspektrale Bildverarbeitungssysteme? Was lässt sich im sichtbaren, was im infraroten Wellenlängenbereich inspizieren und detektieren? Der Vortrag beschäftigt sich ebenso mit den chemisch-physikalischen Effekten, die zur Auswertung genutzt werden.

Inspektion mit Farbe, Infrarot und UV - Tipps, Besonderheiten, Anforderungen

European Imaging Academy

17.10. 11:00-11:25 | 18.10. 14:45-15:10 | in deutscher Sprache

Referent: Lars Fermum, STEMMER IMAGING GmbH

Farbige sowie infrarote und ultraviolette Beleuchtung in Kombination mit Monochrom- oder Farbkameras können genutzt werden, um unterschiedlichste Inspektionsmerkmale sichtbar zu machen. Neben den Grundlagen der Beleuchtungstechnik werden Themen, wie spektrale Sensorempfindlichkeiten von Kameras, geeignete Objektive, optische Filter und andere Themen, wie z.B. Fremdlichtabschirmung mit angesprochen.

Inspektion transparenter Objekte

European Imaging Academy

17.10. 14:30-14:55 | 18.10. 14:15-14:40 | in deutscher Sprache

Referent: Lars Fermum, STEMMER IMAGING GmbH

Durchsichtige Werkstoffe wie Glas, Folien, Kunststoffe, Klebefilme oder Flüssigkeiten erweisen sich immer wieder als schwierige Prüfobjekte. Mit Hilfe eines geeigneten optischen Setups, der richtigen Beleuchtungsmethode oder passenden Inspektionstechnologie lassen sich jedoch solche Probleme meistern, um Objekte zu finden oder auch Oberflächenfehler, Materialrisse, Kantenausbrüche und Verunreinigungen zu finden.

What makes a lens a “good lens” for machine vision?

Fujionfilm

17.10. 10:30-10:55 | 18.10. 11:45-12:10 | in englischer Sprache

Referent: Naoki Nishimoto, Fujifilm Europe GmbH

A lens is the first part of an imaging system and therefore needs to deliver decent image quality. But what makes a lens a “good lens”? What makes the difference in lens design and lens production?

The presentation explains the challenges in optical design and how Fujinon lenses are optimized to deliver best image quality.

Five reasons to use a lighting controller

Gardasoft

17.10. 13:30-13:55 | 18.10. 11:45-12:10 | in englischer Sprache

Referent: Martin House, Gardasoft Vision Ltd.

Do you want to improve the reliability and repeatability of your machine vision applications? Do you need to increase the speed? Will your system need maintenance when the lighting becomes less bright?

Lighting controllers give more stable light output and can give remote control of the lighting so that the brightness can be maintained as the light gets older and less bright. Overdriving is a powerful technique to get more brightness from LED lighting. High speed synchronisation of lighting enables multi-light applications whilst maintaining high line speeds.

This presentation explains the features available in lighting controllers and how they can be used to improve the capability, speed and reliability of your machine vision system. It then describes the latest techniques and features available, including how you can save cost and complexity by reducing the number of inspection positions in a machine.

Robust und flexibel – neuartige Lichtfeldverfahren für die Robotik und industrielle Inspektion

HD Vision Systems GmbH

17.10. 15:45-16:10 | 18.10. 14:45-15:10 | in deutscher Sprache

Referent: Dr. Christoph Garbe, HD Vision Systems

Die 3D Vermessung von komplexen Objekten mit glänzenden Oberflächen stellt eine Herausforderung für die optische Messtechnik dar. Die HD Vision Systems GmbH als Ausgründung aus der Universität Heidelberg hat einen innovativen lichtfeldbasierten Ansatz entwickelt, der sehr robust und flexibel einsetzbar ist.

Die Hardware/Software Lösungen werden hohen Anforderungen an die Messgenauigkeit, die Messgeschwindigkeit und die Robustheit gerecht. In diesem Beitrag werden die technologischen Grundlagen vorgestellt und Anwendungen aus dem Umfeld der Industrie 4.0 und Robotik beispielhaft dargestellt.

Intel RealSense™ depth camera technology review for acquisition of 3D data

intel

17.10. 14:30-14:55 | 18.10. 9:30-9:55 | in englischer Sprache

Referent: Miroslav Mlejnek, Intel Corp.

This presentation outlines the latest technical innovations in modular and robust Intel RealSense™ technology, which combine passive/ active stereo camera technology and SLAM tracking modules to realise advanced solutions in such as like robotics, drones, consumer electronics and video analytics.

Top-10-Bildverarbeitungstrends

InVision

17.10. 10:30-10:55 | 18.10. 11:45-12:10 | in deutscher Sprache

Referent: Dr. Peter Ebert, InVision Magazin

Die Möglichkeiten Bildverarbeitung zu nutzen werden immer umfangreicher. Daher ist es nicht immer einfach, den Überblick über aktuelle Entwicklungen zu behalten. Der Vortrag gibt aus Sicht eines Redakteurs des Bildverarbeitungsmagazins inVision einen kurzen und unabhängigen Überblick, welche Trends es wert sind, sie etwas eingehender zu betrachten. Holen Sie sich in diesem Vortrag Anregungen und Ideen für Ihre nächsten Applikationen.

Farb-Bildaufnahme: Beste Ergebnisse mit Multi-Sensor Prismenkameras

JAI

17.10. 14:30-14:55 | 18.10. 11:45-12:10 | in deutscher Sprache

Referent: Christian Felsheim, JAI A.S.

Multi-Sensor Prismen Farbkameras weisen gegenüber Kameras, die mit Bayer-, multi-linearen Zeilen- oder hyperspektralen Sensoren ausgestattet sind, deutliche Vorteile auf. Im Gegensatz zu diesen Filter basierten Sensorentypen, die das meiste des in die Kamera einfallenden Lichtes blocken und damit nicht nutzen, geht bei Prismenkameras (fast) kein einfallendes Licht verloren sondern wird mit dichroitischen Prismen auf mehrere Sensoren aufgeteilt. Dies führt zu besserem Signal-Rausch-Verhältnis, deutlich höherem Farbkontrast und erheblich geringerem Übersprechen zwischen den Farbkanälen.

Interferenzen oder Halo-Effekte, wie sie oftmals mit Bayer- oder multi-linearen Sensoren zu beobachten sind, werden vermieden. Bedingt durch das Multi-Sensor-Konzept können bei Prismenkameras zudem Verstärkung (Gain) und Integrationszeit für jeden Farbkanal / Sensor getrennt optimiert werden. Dynamik, Farbkontrast und Signal-Rausch-Verhältnis werden dadurch über die gesamte erfasste Brandbreite erheblich verbessert. Für multispektrale Anwendungen kann die Farbseperation der einzelnen Kanale durch Anpassung der dichroitische Beschichtung der Prismen applikationsspezifisch angepasst werden.

Robotik as a Service

KUKA

17.10. 13:30-13:55 | in deutscher Sprache

Referent: Heinrich Munz, KUKA AG

Beim Internet der Dinge (oder Internet of Things, IoT) respektive dem für Produktionszwecke gemachten Ableger namens „Industrie 4.0“ steht heute meistens das reine Datensammeln im Vordergrund: Die „Dinge“ (Sensor, Kamera, Aktor, ganze Maschine, etc.) produzieren während ihrer eigentlichen Aufgabe Daten, die zunächst in Informationspakete komprimiert und der Cloud zugeführt werden müssen. Dort werden sie mit Technologien wie z.B. Machine Learning gesammelt und ausgewertet.

Prozessoptimierungen, vorausschauende Wartung usw. werden dadurch möglich. Die Daten und Informationen werden dabei entweder direkt oder über so genannte „Edge Gateways“ in die Cloud übertragen. Dieser rein datenzentrierte Ansatz greift jedoch zu kurz und wird dem Potential der neuen Architekturebenen HMI-Apps/Cloud/Edge/Thing nicht gerecht.

Wendet man sich von der bisherigen Datenorientierung ab und der Serviceorientierung im Sinne von SOA (Service Oriented Architecture) zu, kommt man zwangsläufig zur „Robotic as a Service“ (RaaS). Und zwar im doppelten Wortsinn: Zum einen ergeben sich neue Business-Modelle, indem beispielsweise Roboter nicht mehr verkauft, sondern den Kunden beigestellt und per Bewegung abgerechnet werden („Pay per Move“). Zum anderen kann jedes „Ding“ – auch Kameras - als Funktions-Server aufgefasst werden, welches seine Dienste der ansteuernden Instanz „über“ ihm – also der Cloud bzw. der Edge - zur Verfügung stellt. Der Roboter wird dadurch zum „Bewegungs-Server“, der nicht mehr wie heute für sich programmiert wird, sondern seine Bewegungsbefehle – genau wie alle anderen am Prozess beteiligten Automatisierungsgeräte wie z. B. Kameras - zentral aus der Edge als Service-Aufrufe erhält.

Intelligente Anpassung von 3D-Sensoren mit anwendungsspezifischen Algorithmen

LMI Technologies

17.10. 10:30-10:55 | 18.10. 10:00-10:25 | in deutscher Sprache

Referent: Christian Benderoth, LMI Technologies Inc.

Speziellen Anwendungsanforderungen gerecht zu werden ist eine der Herausforderungen auf dem heutigen 3D-Sensoren-Markt. Für eine erfolgreiche Fertigung zählt heute nicht nur Geschwindigkeit, sondern auch eine hohe Präzision in der Qualitätskontrolle durch akkurate und verlässliche Messdaten. Um dies zu erreichen, zeigt LMI wie man 3D-Smart-Sensoren durch verschiedene Maßnahmen auf individuelle Bedürfnisse zuschneiden kann, um die unterschiedlichsten Situationen zu meistern.

Anhand von Beispielen, erklärt LMI wie man z.B. mehr Kontrolle über den Inspektionsablauf gewinnen kann, indem Softwareentwickler ihre eigenen Anwendungen in einer sicheren Offline-Umgebung testen können, ohne einen physischen Sensor zu benötigen. Auch das Arbeiten mit großen 3D-Punktwolken, kann durch die Nutzung der Rechenleistung von einem oder mehreren PCs für die Datenverarbeitung vereinfacht werden.

Außerdem erläutert der Vortrag wie Nutzer mit Hilfe von Cross-Compiler-Tools und Programmierschnittstellen die Möglichkeit haben eigene benutzerspezifische Messalgorithmen zu entwickeln, die direkt auf 3D-Smart-Sensoren aufgespielt werden können. Dies erweitert die Funktionalität des Sensors und bietet die Flexibilität, die in einem sich schnell wandelnden Umfeld benötigt wird.

Multi-spectral, SWIR and hyperspectral, next generation of LED illumination

Metaphase

17.10. 11:00-11:25 | 18.10. 10:00-10:25 | in englischer Sprache

Referent: James Gardiner, Metaphase Technologies Inc.

The next generation of LED Illumination is upon us! Metaphase Lighting is bringing the next generation of LEDs, optics, and driver controls technology to machine vision today. This presentation will cover the technology behind the latest LED Illumination that allows vision systems to extract more information than ever before. New driver and optic blending technologies allow Multispectral LED solutions to incorporate more wavelengths in a single light source. High Powered SWIR (short-wave Infrared) LEDs and optics expand the inspection capabilities for Line Scan & Area Scan applications. We also go into how LED technology is playing a role in Hyperspectral Imaging.

Filters for machine vision by machine vision

Midopt

17.10. 11:00-11:25 | 18.10. 9:00-9:25 | in englischer Sprache

Referent: Georgy Das, Midwest Optical Systems Inc.

Optical filters are critical components of machine vision systems. They’re used to maximise contrast, improve colour, enhance subject recognition and control the light that’s reflected from the object being inspected. Learn more about the different filter types, what applications they’re best used for and the most important design features to look for in each. Not all machine vision filters are the same. Learn how to reduce the effects of angular short-shifting. Discover the benefits of filters that emulate the bell-shaped spectral output curve of the LED illumination being used. And find out more about the importance of a high-quality inspection process that limits the possibility for imperfections and enhances system performance.

Line Scan Bar im industriellen Einsatz

Mitsubishi Electric

17.10. 15:45-16:10 | 18.10. 11:45-12:10 | in deutscher Sprache

Referent: Jan Friedrich, STEMMER IMAGING GmbH for Mitsubishi Electric Europe B.V.

Die Technologie der Line Scan Bars ist neben dem Haupteinsatz in der Druckindustrie auch für die Oberflächeninspektion in einer Vielzahl anderer Anwendungen wie beispielsweise Holz, Glas, Solar oder Elektronikfertigung die perfekte Lösung fur Endlosmaterialien und Bahnwaren.

Korrekte Kombination von Flüssiglinsen mit endozentrischen und telezentrischen Optiken

Optotune

17.10. 11:30-11:55 | 18.10. 9:30-9:55 | in deutscher Sprache

Referent: Mark Ventura, Optotune Switzerland AG

Flüssiglinsen sind eine hervorragende Technologie für schnelles und zuverlässiges Fokussieren. Da die Vielfalt an Sensoren und Optiken die Auswahl der Komponenten erschweren kann, ist es Ziel dieses Vortrages einfache Richtlinien und Beispiele aufzuzeigen, damit Sie Flüssiglinsen zu einem praktischen Tool Ihrer Bildverarbeitungslösungen machen können.

Big Image Data – Smart Image Data

Optronis

17.10. 11:30-11:55 | 18.10. 14:15-14:40 | in deutscher Sprache

Referent: Dr. Bernd Reinke, Optronis GmbH

Hochgeschwindigkeitskameras sind Kameras, die ein extrem hohes Datenvolumen pro Zeiteinheit generieren. In der Aufnahme von Einmalereignissen, typisch in der Slow-Motion, treten vorwiegend unstrukturierte Daten auf (Big Image Data); demgegenüber wird in der industriellen Bildverarbeitung überwiegend mit strukturierten Bilddaten gearbeitet (Smart Image Data), die nach entsprechender Bildbearbeitung zu einem Ergebnis führen. Die Implementierung von Algorithmen ist aufgrund des hohen Datenstroms der Hochgeschwindigkeitskameras mit klassischen Bildverarbeitungstools meist nicht mehr durchführbar und erfordert, gerade in der Design-In Phase und bei der Auswahl der richtigen Bildverarbeitungskomponenten, neue Lösungsansätze.

Chemical Colour Imaging … so werden Hyperspektralkameras industrietauglich

Perception Park

17.10. 11:00-11:25 | 18.10. 15:15-15:40 | in deutscher Sprache

Referent: Lukas Daum, Perception Park GmbH

Die Vibrationsspektroskopie basiert auf dem Prinzip, dass Moleküle verschiedene Wellenlängen des elektromagnetischen Spektrums in unterschiedlichem Grad absorbieren, reflektieren oder passieren lassen. Hyperspektralkameras messen dies und liefern pro Ortspunkt ein Spektrum als chemischen Fingerabdruck des Materials. Die chemische Information aus Hyperspektraldaten ist mit herkömmlichen Vision Systemen nicht nutzbar, da Hyperspektraldaten aufwendige Verarbeitungsschritte basierend auf chemometrischen Verfahren erfordern.

Perception Park beschreibt in dieser Präsentation wie hyperspektrale Kameratechnologie und Bildverarbeitung optimal in Applikationen eingesetzt werden kann. Chemical-Colour-Imaging-Methoden transformieren Hyperspektraldaten in Bild-Streams, welche spektroskopische und chemische Eigenschaften (Features) repräsentieren. Diese Streams lassen sich vom Anwender konfigurieren, um gewünschte chemische Eigenschaften darzustellen und werden über Schnittstellen wie GigE Vision an Bildverarbeitungssysteme verteilt. Hyperspektralkameras werden so, ohne zusätzlichen Entwicklungsaufwand, für Vision Systeme einsetzbar. So werden Objekte basierend auf ihren chemischen Eigenschaften differenziert.

Anwendungsgebiete: Recycling, Lebensmittelsicherheit, Qualitätskontrolle (z.B. Pharma, Food, Packaging, Farbmessung etc.).

Mikroskopsysteme und ihre Anwendungsmöglichkeiten in der Bildverarbeitung

Qioptiq

17.10. 13:30-13:55 | 18.10. 10:00-10:25 | in deutscher Sprache

Referent: Thomas Schäffler, Qioptiq Photonics GmbH & Co.KG

„Mikroskope stehen im Labor, um kleine Strukturen und Dinge zu betrachten. Für die Bildverarbeitung ist das aber nichts.“ Das war einmal, steckt aber trotzdem noch in vielen Köpfen. Tatsächlich existieren mittlerweile Mikroskopsysteme, die speziell für die Bildverarbeitung entwickelt wurden und im Vergleich zu Objektiven mit endlich-endlich Abbildung nicht nur höhere Auflösungen bieten, sondern zudem Optionen für neue Inspektionsverfahren eröffnen.

Optische Kohärenztomographie (OCT) als neue Imaging-Technik zur Überwachung pharmazeutischer Beschichtungsprozesse

Research Center Pharmaceutical Engineering GmbH

17.10. 16:15-16:40 | 18.10. 15:15-15:45 | in deutscher Sprache

Referent: Matthias Wolfgang, RCPE Research Center Pharmaceutical Engineering GmbH

Optische Kohärenztomographie (OCT) ist eine berührungslose, zerstörungsfreie und hochauflösende Visualisierungstechnik basierend auf niederkohärenter Interferometrie. Anwendung findet diese Technologie bislang vor allem in der Medizin, speziell in der Augenheilkunde.

Am RCPE wurde in Zusammenarbeit mit RECENDT ein Messgerät – basierend auf der OCT-Technologie zur in-Line-Überwachung von Beschichtungsprozessen für pharmazeutische Filmtabletten und Pellets – entwickelt. Dabei werden tomografische Querschnittsbilder der Beschichtungen aus einem Spektral-Domäne-OCT-Gerät (SD-OCT) in Echtzeit direkt aus den Interferogrammen erstellt und mit speziellen Algorithmen ausgewertet. Durch die hohe Sampling-Rate ermöglicht diese Technik eine direkte Messung der Beschichtungsstärke an einzelnen Pellets / Tabletten während des Beschichtungsprozesses – anstatt nur durchschnittliche Werte bereitzustellen. Der Anwender erhält damit in kürzester Zeit viel mehr Information über die Beschichtungsstärke, Qualität und Variabilität im Vergleich zu Standard-Qualitätskontrollverfahren.

Auch im Vergleich zu anderen optischen Methoden wie beispielsweise Raman-Spektroskopie oder Terahertz-Imaging können Vorteile von OCT in Bezug auf Geschwindigkeit und Ortsauflösung demonstriert werden. Der hohe Informationsgehalt zusammen mit der Echtzeit-Verfügbarkeit von Messdaten unterstreicht die hohe Leistungsfähigkeit der OCT-Technologie, und bietet einen direkten Mehrwert zum Prozess-Verständnis und zur Kontrolle von Fertigungsprozessen in der pharmazeutischen Tablettenbeschichtung.

Shape from Shading - Automatisierte 100% Prüfung von Oberflächen im Vergleich zu anderen 3D-Verfahren

SAC Sirius Advanced Cybernetics GmbH

18.10. 15:15-15:45 | in deutscher Sprache

Referent: Johannes Zahn, SAC Sirius Advanced Cybernetics GmbH

In vielen Bereichen der automatisierten Oberflächeninspektion ermöglichen 3D-Verfahren ein sicheres Erkennen von funktionskritischen Fehlern. In diesem Vortrag werden verschiedene optische 3D-Verfahren präsentiert und mit den Eigenschaften der Shape from Shading-Technologie verglichen. Zusätzlich findet eine Betrachtung der im Shape from Shading-Verfahren etablierten Beleuchtungsansätze statt. Dabei liegt der Schwerpunkt auf der schnellen und zuverlässigen Prüfung feinster topografischer Defekte im µm-Bereich, besonders bei anspruchsvollen Oberflächen. Dies wird an praxisnahen Aufgabenstellungen verdeutlicht.

Der Einfluss der Wellenlänge auf das Optikdesign

Schneider Kreuznach

17.10. 14:00-14:25 | 18.10. 11:15-11:40 | in deutscher Sprache

Referent: Steffen Mahler, Jos.Schneider Optische Werke GmbH

Heutige Anwendungen in der Bildverarbeitung erfordern immer häufiger eine Spezialisierung auf unterschiedliche Wellenlängenbereiche. Dies reicht von monochromer Beleuchtung in der Messtechnik über Tageslicht und NIR im Outdoor Bereich bis hin zu hyperspektral Technologien im SWIR-Bereich. Diese unterschiedlichen Anforderungen an die Farbkorrektion werden bereits beim Optik- und Beschichtungsdesign für die jeweiligen Objektivreihen berücksichtigt.

Beleuchtungssequenzen zur Oberflächeninspektion: High-Speed Mechanismen der Bilderfassung und -vorverarbeitung

Silicon Software

17.10. 11:30-11:55 | 18.10. 12:15-12:40 | in deutscher Sprache

Referent: Björn Rudde, Silicon Software GmbH

Industrielle Bildverarbeitung wird im Bereich der Oberflächeninspektion in verschiedensten Branchen zur Anwendung gebracht. Diese Art von Inspektionsaufgaben bringt dabei eine Vielzahl von Algorithmen zum Einsatz, um verschiedenste Informationen aus dem Bildmaterial zu gewinnen.

Insbesondere liegt die Herausforderung zum einen in der Detektion kleinster Fehler innerhalb der Oberfläche, andererseits sind teils erhebliche Bahnbreiten in den Anwendungen zu finden.

Gerade die Erzeugung von Beleuchtungssequenzen bildet dabei häufig ein zentrales Kernelement, um damit eine Datengrundlage für einen zuverlässigen Verarbeitungsprozess zu schaffen. Auch komplexere Vorverarbeitungsansätze müssen in einem solchen System zielführend und effektiv abgebildet werden können.

Zum einen werden dazu unterschiedlichste Verfahren zur Bilderzeugung verwendet und ebenso werden Mechanismen benötigt die eine robuste Bilderfassung und -verarbeitung ermöglichen. Wie dies in der Praxis – insbesondere für hohe Prozessgeschwindigkeiten – realisiert wird möchte dieser Vortrag erläutern.

Telezentrische Objektive – Anwendungsbereiche über die Standard-Messaufgabe hinaus

Sill Optics

17.10. 14:30-14:55 | 18.10. 14:45-15:10 | in deutscher Sprache

Referent: Andreas Platz, Sill Optics GmbH & Co.KG

Warum ein telezentrisches Objektiv? Die Vorteile der telezentrischen Messung liegen auf der Hand: hochpräzise Messungen, konstante Vergrößerung und geringe Verzeichnung, auch bei Objekten mit Tiefenausdehnung. Doch die Anwendungsbereiche gehen weit darüber hinaus.

Eine telezentrische, koaxiale Auflichtbeleuchtung durch das Messobjektiv verbessert die Beurteilung von Oberflächenstrukturen. Eine telezentrische Optik mit fokusvariabler Linse ermöglicht einen verstellbaren Arbeitsabstand und damit einen deutlich erweiterten Tiefenscan. Außerdem bietet eine telezentrische Optik deutlich geringere Verzeichnungswerte bei Betrachtung einer verkippten Objektebene.

Darüber hinaus sind spezielle Sensoren oder Projektionsaufgaben auf einen telezentrischen Strahlengang angewiesen. In allen genannten Fällen sind bereits bei der Systemauslegung verschiedene Einflussfaktoren zu prüfen.
Im Vortrag wird ein Überblick über besondere Anwendungsfälle, sowie Chancen und Grenzen bestimmter Lösungen gegeben.

IEC 62471 photobiological safety standards for LED lighting products

Smart Vision Lights

17.10. 14:00-14:25 | 18.10. 9:30-9:55 | in englischer Sprache

Referent: Matt Pinter, Smart Vision Lights

The machine vision technology forum will provide information to help users understand how to test LED lighting products in accordance to IEC 62471. The information presented will explain the IEC 62471 photobiological safety of lamps and lamp systems for LED lighting. A practical approach will be covered regarding the testing and the classification of an LED light into the proper risk group classification. An overview of the testing procedures, equipment and the IEC 62471 report will also be discussed.

Vorteile der Push-Broom-Technologie für hyperspektrale Bildverarbeitung

Specim Spectral Imaging

17.10. 14:00-14:25 | 18.10. 9:00-9:25 | in deutscher Sprache

Referent: Dr. Georg Meissner, Specim Spectral Imaging Ltd.

Die hyperspektrale Bildverarbeitung ist eine neue Bildverarbeitungstechnologie für industrielle Anwendungen wie z.B. Qualitätskontrolle und Prozesssteuerung. Mehrere hyperspektrale Bildgebungstechnologien bieten sich als Alternativen an. Bei Auswahl der bildverarbeiteten Kamera / Ausrüstung sollten sowohl funktionelle als auch kommerzielle Eigenschaften in Erwägung gezogen werden. Als typische Kriterien für Anwendungen werden in der Regel Wellenlängenbereich, Auflösung, Aufnahmegeschwindigkeit und Return-of-Invest verwendet. Entscheidend für das Anwendungsergebnis ist aber auch der Einfluss der ausgewählten hyperspektralen Technologie für die Ausleuchtung, den Lichtbedarf der Kamera für Signal-Effizienz, Genauigkeit und Qualität der spektralen Daten und die Einfachheit in der Datenverwertung.

Die Präsentation erklärt die entscheidenden Unterschiede der Push-Broom-Technologie und konkurrierenden Technologien, sowie ihren Einfluss auf praktische Industrieanwendungen.

Multi- und Hyperspektrale Bildverarbeitung für Anwendungen in Industrie, Biomedizin und täglichem Leben.

Spectronet

17.10. 16:45-17:10 | 18.10. 9:00-9:25 | in deutscher Sprache

Referent: Paul-Gerald Dittrich, Spectronet

Photonische Mikrosensoren und digitale Bildverarbeitung sind bedeutende Schlüsselkomponenten, um Qualität zu messen, zu steuern und zu regeln. Um den wachsenden Erwartungen an die Qualität zu entsprechen, stehen nunmehr miniaturisierte photonische Mikrosensoren für geometrische, kolorimetrische und spektrometrische Messungen zur Verfügung. Neueste Entwicklungen ermöglichen eine gleichzeitige Aufnahme von geometrischen, kolorimetrischen und spektrometrischen Informationen mit spezialisierten Mikrokameras. Diese Kameras werden als Multi-/Hyperspektralkameras benannt.

Der Vortrag befasst sich mit Komponenten (Beleuchtung, Optik, Sensoren, Schnittstellen, Computer und Software) und deren Anwendungen in Industrie, Biomedizin und täglichem Leben und gibt einen Ausblick auf zukünftige Entwicklungen in der mobilen photonischen Messtechnik und modularisierten vernetzten Qualitätssicherung.

3D-Bildverarbeitung – Von der Problemstellung zum Ergebnis

STEMMER IMAGING

17.10. 14:30-14:55 | 18.10. 15:15-15:40 | in deutscher Sprache

Referent: Maurice Lingenfelder, STEMMER IMAGING GmbH

Die 3D-Bildverarbeitung hat sich als Form der automatischen Qualitätskontrolle in der Industrie fest etabliert und verzeichnet nach wie vor große Zuwächse. Sie kommt immer dann zum Zug, wenn klassische 2D-Verfahren für eine Aufgabenstellung nicht mehr ausreichen oder komplizierte Kamerasysteme durch einen 3D-Sensor ersetzt werden können.

Dieser Vortrag liefert einen Überblick über den aktuellen Stand der 3D-Bildverarbeitung und beschreibt den klassischen Ablauf von der Auswahl des Messsystems bis hin zur Datenauswertung der erhaltenen 3D-Informationen. Dabei liegt der Fokus auf der Kalibrierung von Sensordaten und der Auswertung von 3D-Punktwolken mittels eines Soll-Ist-Verfahrens.

Image processing through the years

STEMMER IMAGING

17.10. 16:45-17:10 | 18.10. 14:45-15:10 | in englischer Sprache

Referent: Dr. Jonathan Vickers, STEMMER IMAGING GmbH

This year Common Vision Blox is 20 years old, what are the changes that have come to the machine vision market over those years? How has the hardware developed and what effect did it have on the software and the systems? This talk tracks the changes as they affected Common Vision Blox as an independent programming library, from Intel Pentium 2 CPUs running at 233MHz to embedded ARM boards running at 2.4GHz. From TV standard interlaced analogue cameras to 260 megapixels. Learning tools, GPUs and distributed processing. But the biggest change? Standards.

CVB++, CVB.Net und pyCVB – neue Ansätze zur modernen Anwendungsentwicklung mit Common Vision Blox

STEMMER IMAGING

17.10. 16:15-16:40 | 18.10. 15:15-15:40 | in deutscher Sprache

Referent: Volker Gimple, STEMMER IMAGING GmbH

Im Lauf der vergangenen 20 Jahre haben sich Programmiersprachen, Laufzeitumgebungen und Programmiertechniken unablässig weiterentwickelt. Softwareentwickler können heute aus einer deutlich breiteren Palette an Werkzeugen, Plattformen und Methoden wählen als zu den Anfangszeiten von Common Vision Blox. Dank seiner C-basierten prozeduralen API kann Common Vision Blox im Prinzip auch heute, 20 Jahre nach seiner Konzeption noch mit praktisch jeder gängigen Programmiersprache und auf jeder gängigen Plattform eingesetzt werden.

Auf der anderen Seite sind viele Patterns an hochsprachliche Mittel gebunden, an die die Common Vision Blox API gegenwärtig von jedem Kunden bei Bedarf mehr oder weniger selbst angepasst werden muss. Aus diesem Grund werden hier drei neue, in der Entstehung befindliche APIs vorgestellt, mit deren Hilfe sich Common Vision Blox leichter und komfortabler als bisher mit den Sprachen C++, C# und Python insbesondere zur Erstellung und zum Debuggen komplexer Applikationen nutzen lässt.

Das Design der drei sprachspezifischen APIs wird in Grundzügen und vergleichend dargestellt – Kenntnisse in mindestens einer der drei Sprachen sind hierbei von Vorteil – wobei auch auf die verbesserten Möglichkeiten der Fehlersuche und die Anbindung an gängige Laufzeitbibliotheken (Qt, WPF, Windows Forms, NumPy) eingegangen wird. Der aktuelle Stand der Bemühungen wird umrissen und ein Ausblick auf weitere Entwicklungsschritte gegeben.

Machine-Vision-Klassifikatoren – Vorteile und Herausforderungen ausgewählter Methoden

STEMMER IMAGING

17.10. 13:30-13:55 | 18.10. 12:15-12:40 | in deutscher Sprache

Referent: Frank Orben, STEMMER IMAGING GmbH

Machine-Vision-Klassifikatoren eignen sich, um Zustand und Aussehen von Objekten zu bewerten und ihnen Klassen zuzuordnen. In dieser Präsentation wird auf die Verwendung von Ridge Regression und Convolutional Neural Networks (Deep Learning) für Klassifikationsaufgaben eingegangen sowie mögliche Vorteile und Herausforderungen aufgezeigt.

Neben den theoretischen Grundlagen für die Funktionsweise der Methoden werden die Anwendungsmöglichkeiten der Klassifikationstechniken vorgestellt und welche Schwierigkeiten sich dabei ergeben können. Für unterschiedliche Datensätze wurden Klassifikatoren erzeugt, mit denen sich die Methoden bezüglich Klassifikationsgenauigkeit und Trainings- und Klassifikationszeiten genauer untersuchen lassen. Zudem werden die Anforderungen an Hardware und an die Größe von Trainingsdaten beleuchtet. Zuletzt wird ein kurzer Einblick gegeben, welche der Methoden sich für die robuste skalen- und rotationsinvariante Objektdetektion eignet.

Hard- und Software für Embedded Machine Vision

STEMMER IMAGING

17.10. 15:45-16:10 | 18.10. 10:00-10:25 | in deutscher Sprache

Referent: Martin Kersting, STEMMER IMAGING GmbH

Embedded Vision als Oberbegriff sagt nur wenig über die Hard- bzw. Software aus. Doch es gibt gewaltige Unterschiede im Bereich der Hardware und der Betriebssysteme. Sei es Windows IoT auf Intel Plattformen, Linux auf TX1 Grafikprozessoren oder Android auf simplen ARM Architekturen, alles wird über den Kamm ‚Embedded Vision‘ geschoren.

Der Vortrag beschreibt diverse Hardware-Plattformen mit ihren Vor- und Nachteilen und gibt Auskunft über mögliche Entwicklungswerkzeuge für die Erstellung von plattformübergreifenden Applikationen. Zudem werden Möglichkeiten der Bilderfassung für solche Plattformen vorgestellt.

Woran kann’s liegen ???? Fehlersuche in Bildverarbeitungsapplikationen

STEMMER IMAGING

17.10. 10:30-10:55 | 18.10. 9:30-9:55 | in deutscher Sprache

Referent: Lothar Burzan, STEMMER IMAGING GmbH

Was tun, wenn mal wieder nichts geht? BV-Systeme werden immer komplexer und vielschichtiger. Probleme können schwer eingeordnet werden, da Fehlerursache und Symptome oft weit auseinanderliegen. Dieser Vortrag zeigt Methoden der Fehlersuche und nennt Möglichkeiten Fehler zu vermeiden oder frühzeitig zu erkennen.

Embedded Vision für die Industrie – Anforderungen, Unterschiede und Hilfestellungen

Teledyne DALSA

17.10. 13:30-13:55 | 18.10. 12:15-12:40 | in deutscher Sprache

Referent: Steve Geraghty, Teledyne DALSA Inc.

Abhängig vom Nutzer und der Anwendung kann die Bezeichnung “Embedded Vision” jeweils eine andere Bedeutung annehmen. Für einige kann dieser Term einfach die Integration eines Sensors zum Zweck der Digitalisierung eines Bildes bedeuten, während für andere damit der Einsatz intelligenter Sensorlösungen für die Qualitätskontrolle, Roboterführung oder Logistik gemeint ist.

Der Vortrag beschäftigt sich mit diesen Unterschieden, deren Bedeutungen in der Industrie im Besonderen und betrachtet die verschiedenen Lösungen, die heute auf dem Markt erhältlich sind. Dabei werden auch die Eignung, sowie Stärken und Schwächen gegenübergestellt. Im letzten Teil werden die Herausforderungen für den Anwender diskutiert und wichtige Anforderungen an die Software aufgezeigt, die unbedingt berücksichtigt werden müssen, bevor eine Entscheidung für eine Embedded-Vision-Lösung getroffen werden kann.

Es ist nicht mehr nur schwarz und weiß – wie neue Sensorik die Bildverarbeitung verändert

Teledyne DALSA

17.10. 11:00-11:25 | 18.10. 14:15-14:40 | in deutscher Sprache

Referent: Andreas Lange, Teledyne DALSA Inc.

Die Welt der Bildverarbeitung hat sich weit über den Bereich der Schwarzweiß- und Farbbildgebung hinausbewegt. Beschränkte man sich in den vergangenen Jahren noch auf Pass/Fail-Kriterien, die aus Messbildern generiert wurden, so müssen Bilddaten heute genügend Informationen liefern, um die eigentlichen Fehler verstehen und die Qualität verbessern zu können. Darüber hinaus werden Bilddaten jetzt mit vielen unsichtbaren Qualitätsmerkmalen des Produkts in Verbindung gebracht.

Forschungseinrichtungen und Universitäten identifizieren neue Zusammenhänge zwischen Materialeigenschaften und dem elektromagnetischen Spektrum, damit zerstörungsfreie oder nicht-invasive Techniken zur Anwendung kommen. Jedoch erfordern die gewünschten Informationen oft zahlreiche Datenströme und Rohbilddaten. Modales Imaging wird heute bereits in vielen Basisanwendungen der Bildverarbeitung genutzt. Dieser Vortrag stellt einige Techniken hierzu vor.

Herausforderungen und Trends im Mikrobolometer Design

Teledyne DALSA

17.10. 15:45-16:10 | 18.10. 9:00-9:25 | in deutscher Sprache

Referent: Uwe Pulsfort, Teledyne DALSA Inc.

Aufgrund der Verfügbarkeit von kleineren, empfindlicheren und günstigeren Lösungen, erlangen langwellige Infrarot-Lösungen wachsende Bedeutung in den verschiedensten Anwendungsbereichen. Mit dieser Präsentation sollen die zahlreichen Herausforderungen während des Entwicklungs- und Herstellungsprozesses von ungekühlten LWIR-Detektoren veranschaulicht werden. Des weiteren werden neue Technologietrends wie beispielsweise Wafer-level Packaging vorgestellt. Außerdem wird auf weitere Technologien eingegangen, die die Implementierung von spezifischen Leistungsmerkmalen ermöglichen, um die zahlreichen Anforderungen in industriellen Anwendungen erfüllen zu können. Abschließend erfolgt ein Ausblick auf zukünftige Designkonzepte und Markttrends.

Warum benötigen wir 155 Mpixel Sensoren / Kameras und für welche Anwendungen?

Vieworks

17.10. 16:45-17:10 | 18.10. 9:30-9:55 | in deutscher Sprache

Referent: Wojciech Majewski, Vieworks Co.,Ltd.

Im Jahr 1975 Kodak hat die erste Digitalkamera vorgestellt, die nur einen Bildsensor von 0,1 Megapixel hatte. Seitdem hat sich die Auflösung der verfügbaren Sensoren enorm erhöht. Es gibt inzwischen ein fast unersättliches Bedürfnis nach immer höheren Auflösungen und Geschwindigkeit der Aufnahme.

Dieser Bedarf kommt hauptsächlich von Systemen aus dem Bereich der automatischen optischen Inspektion (AOI), die in Elektronik-, Halbleiter- und bei Flachbildschirmen (FPD) eingesetzt werden. AOI-Systeme sorgen für eine perfekte Produktionsqualität in Hochgeschwindigkeitsfertigungsprozessen. Kameras mit immer besseren Auflösungen nehmen Bilder auf, finden mittels Bildverarbeitungsverfahren Fehler in der Produktion und melden diese, um höchste Qualität zu gewährleisten.

10 GigE und NBASE-T – wie die Bildverarbeitung dank Cisco vereinfacht wird

VRmagic

17.10. 16:15-16:40 | 18.10. 14:45-15:10 | in deutscher Sprache

Referent: Oliver Menken, VRmagic Imaging GmbH

Mit dem Wandel von analogen zu digitalen Kameras wurden Datenschnittstellen aus der PC-Welt in der Bildverarbeitung populär. Während frühe digitale Kameragenerationen z.B. auf Firewire gesetzt haben, setzen aktuelle Kameragenerationen auf die in jedem Standard-PC vorhandenen Interfaces USB und Gigabit Ethernet, aber auch auf speziellere Schnittstellen wie CoaXPress oder CameraLink, wenn hohe Datenraten benötigt werden.

CoaXPress und CameraLink tragen momentan dem Trend in der Machine-Vision-Welt nach höheren Auflösungen und Bildraten Rechnung. Interfaces mit immer höherer Bandbreite stehen somit hoch im Kurs. In den letzten Jahren haben Key-Player wie CISCO 10 GigE und NBASE-T in aktuelle Ethernet-Backbones und High-Performance WIFI Router integriert.

Dieser Trend setzt sich auch 2017 fort: Consumer-Netzwerkfestplatten (NAS) weisen inzwischen 10 GigE-Schnittstellen auf und die ersten 10 GigE-Netzwerkkarten (NICs) unterschreiten die 100 Dollar-Preisgrenze. In Kürze werden 10 GigE und NBASE-T die 1 GigE-Schnittstelle ablösen. Die Bildverarbeitung profitiert von der Arbeit, die CISCO, Intel und Co. geleistet haben. Die ersten 10 GigE-Kameras für die Bildverarbeitung sind am Markt. Bildverarbeiter dürfen sich über viele Vorteile freuen: einfachere Komponentenauswahl, lange Standardkabel, geringe Latenzen usw. – und das zu niedrigeren Kosten.

Hochgeschwindigkeits-InGaAs-SWIR-Zeilendetektoren- und Kameras für OCT und Bildverarbeitungssysteme

Xenics

17.10. 11:30-11:55 | 18.10. 11:15-11:40 | in deutscher Sprache

Referent: Guido Deutz, Xenics N.V.

Indium Gallium Arsenid (kurz InGaAs) Photodioden erobern mehr und mehr industrielle Anwendungen in der Optoelektronik im kurzwellige Infrarot-Spektrum von 0,9 bis 1,7µm (sogenannt SWIR). Dieser Vortrag gibt einen kurzen historischen Überblick von der Materialentwicklung bis zu dem modernen Stand der Flip-Chip Detektorarchitektur. Darüber hinaus werden praktische Beispiele aus der Bildverarbeitung wie auch der optischen Kohärenztomografie anhand neuster High-Speed-Zeilenarrays und -kameras gezeigt.

Eine neue Generation an Lasermodulen – Welche neue Möglichkeiten bieten heutige Laser für Ihr Bildverarbeitungssystem

Z-Laser

17.10. 14:30-14:55 | 18.10. 11:15-11:40 | in deutscher Sprache

Referent: Stephan Broche, Z-Laser Optoelektronik GmbH

Über die letzten 20 Jahre haben sich Laser als Beleuchtung für die 3D-Messtechnik, wie zum Beispiel bei Triangulationssystemen, etabliert und sind aus einer automatisierten Produktion nicht mehr wegzudenken. Mittlerweile sind eine Vielzahl an Wellenlängen und Ausgangsleistungen verfügbar, so dass es für unterschiedlichste Materialien und Inspektionsgeschwindigkeiten immer das passende Lasermodul gibt. Im Zeitalter „Industrie 4.0“ werden allerdings ganz neue Anforderungen an die einzelnen Komponenten in einem Bildverarbeitungssystem gestellt. Durch neue Produktionsprozesse und intelligente Treiberelektronik bieten heutige Lasermodule weit mehr als nur die Projektion einer Linie oder eines Punkts. Dieser Vortrag erklärt Ihnen, welche Weiterentwicklungen es gab und wie Sie in Ihrer Anwendung davon profitieren können.

Warum ist der F-Mount obsolet?

Zeiss

17.10. 15:45-16:10 | 18.10. 14:15-14:40 | in deutscher Sprache

Referent: Udo Schellenbach, Carl Zeiss AG

Seit den 1980er Jahren wird computergestützte automatische Bildverarbeitung und -analyse betrieben. Die hauptsächlichen Treiber dieser Technologie bis zum heutigen Stand waren in erster Linie die Fortschritte in der Computertechnik, der Sensortechnik, der Beleuchtung und der Bildverarbeitungsalgorithmen. Die verwendeten Optiken waren meist solche, die der Videomarkt (C-Mount) und der Photomarkt (F-Mount) zur Verfügung stellte. Auch heute noch werden F-Mount-Objektive in großer Zahl in industriellen Anwendungen eingesetzt, obwohl deren Nachteile weithin bekannt sind und bessere Alternativen zur Verfügung stehen. Gibt es überhaupt noch Gründe, F-Mount Objektive in industriellen Anwendungen einzusetzen?