nach oben
Meine Merkliste
Ihre Merklisteneinträge speichern
Wenn Sie weitere Inhalte zu Ihrer Merkliste hinzufügen möchten, melden Sie sich bitte an. Wenn Sie noch kein Benutzerkonto haben, registrieren Sie sich bitte im Hanser Kundencenter.

» Sie haben schon ein Benutzerkonto? Melden Sie sich bitte hier an.
» Noch kein Benutzerkonto? Registrieren Sie sich bitte hier.
Ihre Merklisten
Wenn Sie Ihre Merklisten bei Ihrem nächsten Besuch wieder verwenden möchten, melden Sie sich bitte an oder registrieren Sie sich im Hanser Kundencenter.
» Sie haben schon ein Benutzerkonto? Melden Sie sich bitte hier an.
» Noch kein Benutzerkonto? Registrieren Sie sich bitte hier.

« Zurück

Ihre Vorteile im Überblick

  • Ein Login für alle Hanser Fachportale
  • Individuelle Startseite und damit schneller Zugriff auf bevorzugte Inhalte
  • Exklusiver Zugriff auf ausgewählte Inhalte
  • Persönliche Merklisten über alle Hanser Fachportale
  • Zentrale Verwaltung Ihrer persönlichen Daten und Newsletter-Abonnements

Jetzt registrieren
Merken Gemerkt
Messen und Prüfen - Optische 3-D-Messtechnik

Lichtschnittverfahren

Ein sehr weit verbreitetes Verfahren zur optischen Formerfassung ist das Lichtschnittverfahren. Hierbei wird - meist mittels eines Lasers - ein gefächerter Lichtstrahl unter einem bekannten Winkel auf das Messobjekt projiziert. Die dadurch entstehende Lichtebene schneidet das Objekt entlang einer Profillinie, deren Verlauf aus dem Blickwinkel einer Kamera in Abhängigkeit der Objekthöhe mehr oder weniger gekrümmt wird. Mit Kenntnis der Geometrie von Lichtstrahl und Kamera kann nach dem Triangulationsprinzip das exakte Höhenprofil des Prüflings ermittelt werden. Dieser Lösungsansatz hat sich auf Grund seiner Robustheit und Genauigkeit bereits in vielen Anwendungen bewährt.

1 Messprinzip

Das Lichtschnittverfahren nutzt das Prinzip der Triangulation. Im einfachsten Fall der Triangulation wird mit einem Laser ein Lichtpunkt auf das Messobjekt projiziert. Das vom Objekt reflektierte Licht wird auf einem positionsempfindlichen Detektor (Kamera) abgebildet. Die unbekannte Objektkoordinate wird dann innerhalb eines Dreiecks mit bekannter Basislänge b und den ebenfalls bekannten angrenzenden Winkeln α und β bestimmt (Bild 1).

Bild 1. Prinzip der Triangulation (Quelle: Fraunhofer IFF)

Bild 1. Prinzip der Triangulation (Quelle: Fraunhofer IFF)

Es ist ersichtlich, dass mit zunehmendem Winkel zwischen Laser und Kamera die Messgenauigkeit steigt. Gleichzeitig ist aber zu beachten, dass bei einem großen Winkel γ zumindest bei nicht ebenen Objekten größere Objektbereiche abgeschattet werden können. Hier ist ein Kompromiss zu finden, der meist bei (γ=25..45) Grad liegt. Dieser Zusammenhang zwischen Messauflösung und Beobachtungswinkel ist typisch für alle auf dem Triangulationsprinzip beruhenden Verfahren.

Wird statt eines einzelnen Punktes eine Linie bzw. eine scharfe Hell-Dunkel-Grenze auf das Messobjekt projiziert, lassen sich aus einer Bildaufnahme alle Objektkoordinaten berechnen, die auf dieser sogenannten Lichtebene liegen (Bild 2). Dies bedeutet einen erheblichen Zeitvorteil für die Digitalisierung der Objektkontur.

Bild 2. Aufbau und Messprinzip eines Lichtschnittsensors (Quelle: Fraunhofer IFF)

Bild 2. Aufbau und Messprinzip eines Lichtschnittsensors (Quelle: Fraunhofer IFF)

Der im folgenden verwendete Begriff Lichtschnittsensor bezeichnet eine Kombination aus Kamera und Linienlaser und ist somit die kleinste messfähige Einheit der hier betrachteten optischen Mess-Systeme.

Um von einem einzelnen Lichtschnitt zur Digitalisierung der gesamten Kontur zu kommen, muss entweder das Messobjekt oder die Sensoranordnung bewegt werden. Dies stellt sehr hohe Anforderungen an die verwendeten Bewegungsachsen hinsichtlich ihrer Positioniergenauigkeit. Alle mechanischen Fehler gehen dabei direkt in das Messergebnis ein.

Eine weitere Möglichkeit zur Erweiterung eines Lichtschnittmess-Systems ist die Anordnung mehrerer Kameras und Laser. Um allerdings eine eindeutige Zuordnung der Lichtebenen zu gewährleisten, ist es notwendig, entweder die Laser mit unterschiedlicher Wellenlänge zu betreiben und die Kameras mit entsprechenden Bandpassfiltern auszurüsten oder sie synchron zu den Bildaufnahmen ein- und auszuschalten. Auf diese Weise vereinfacht sich aber unter Umständen das Positioniersystem erheblich, was sich in deutlich geringeren Kosten und einer erheblichen Zeitersparnis ausdrückt.

Im Verhältnis zu den Bildraten, die bei modernen Kameras einige hundert Bilder pro Sekunde erreichen können, besteht das limitierende Kriterium für die Messzeit vor allem in der Positionierzeit der einzelnen Achsen. Steht die geforderte Messunsicherheit jedoch nicht im Widerspruch zu einer leichten Bewegungsunschärfe der Profillinie im Kamerabild, so besteht die Möglichkeit in der Bewegung zu messen, synchron zum Bildtakt der Kamera die Position des Achssystems auszulesen und in die Rechnung einfließen zu lassen.

Allgemein werden für den Einsatz in der Messtechnik erhöhte Anforderungen hinsichtlich der Stabilität und Präzision des mechanischen Aufbaus, der Güte des optischen Systems, der Rechenleistung und Speicherkapazität der Bildverarbeitungseinheit sowie der Industrietauglichkeit des Gesamtsystems gestellt. Hierfür stehen inzwischen eine ganze Reihe von Systemkomponenten zur Verfügung, die einer ständigen Weiterentwicklung unterliegen und ihre Praxistauglichkeit in unterschiedlichsten Systemen unter Beweis gestellt haben. Ein besonderes Augenmerk liegt hierbei auf der wachsenden Anzahl von Kameras mit integrierter Signalverarbeitung, die das Finden der Laserlinie im Bild bereits intern realisieren. Damit steigt die Anzahl der möglichen Bildaufnahmen pro Sekunde, und die benötigten Datenübertragungsraten sinken auf einen Bruchteil der sonst üblichen Werte.

Bild 3. Versuchsaufbau zur Vermessung eines Motorradtanks (Quelle: Fraunhofer IFF)

Bild 3. Versuchsaufbau zur Vermessung eines Motorradtanks (Quelle: Fraunhofer IFF)

Bild 3 zeigt die Anordnung von zwei Lichtschnittsensoren und einem Achssystem, das über einen rotatorischen und zwei translatorische Freiheitsgrade verfügt. Dieser Versuchsaufbau wurde eingerichtet, um die äußere Hülle eine Motorradtankes zu digitalisieren.

Bedeutsam ist an diesem Beispiel, dass die Lichtschnittsensoren und das Achssystem photogrammetrisch in einem gemeinsamen Weltkoordinatensystem eingemessen wurden. Das bedeutet, dass die Position und Orientierung der Kameras und die Bewegungsrichtungen der einzelnen Achsen bekannt sind und somit zusammen mit den Ergebnissen des Lichtschnittes direkt zu einer Gesamtpunktwolke zusammengefügt werden können.


2 Wichtige Schritte zur Lichtschnittmessung

2.1 Einmessvorgang

Eine Voraussetzung zur Durchführung der Vermessung ist die Kenntnis der Abbildungseigenschaften des zur Bildaufnahme und zur Projektion der Lichtebene verwendeten optischen Systems in einem definierten Weltkoordinatensystem.

Werden Bewegungsachsen verwendet, um den Lichtschnittsensor oder das Messobjekt zu bewegen, so ist auch hierfür ein beschreibendes Modell mit Bezug zum Weltkoordinatensystem notwendig. Für translatorische Verfahreinheiten ist dazu die Ausrichtung (Richtungsvektor) und für rotatorische Verfahreinheiten die Lage der Rotationsachse (3-D-Punkt und Richtungsvektor) zu bestimmen.

Im folgenden soll das eingesetzte Modell für die Bildaufnahme im Messsystem näher beschrieben werden:

Die Abbildung des dreidimensionalen Objektraumes in die zweidimensionale Bildebene der Kamera wird durch das Kameramodell beschrieben. Als grundlegendes mathematisches Modell für diese Transformation wird im allgemeinen die Zentralprojektion herangezogen. Bild 4 zeigt die geometrischen Verhältnisse.

Bild 4. Photogrammetrisches Kameramodell (Quelle: Fraunhofer IFF)

Bild 4. Photogrammetrisches Kameramodell (Quelle: Fraunhofer IFF)

Ein Punkt P des Objektraumes wird über das Abbildungszentrum O in den Punkt (xp ,yp ) der Bildebene abgebildet. Der Zusammenhang zwischen den Bildkoordinaten und den Objektkoordinaten wird über Transformationsgleichungen beschrieben, die durch zwei Arten von Parametern charakterisiert werden:

Die Lage des Kamerakoordinatensystems (XC ,YC ,ZC ) in Bezug zum Weltkoordinatensystem (XW ,YW ,ZW ) wird durch je drei Rotations- und Translationsparameter beschrieben. Diese sechs Werte werden als äußere Kameraparameter bezeichnet.

Die inneren Parameter beschreiben den Abbildungsvorgang des Objektpunktes P auf den Bildsensor aus Sicht der Kamera. Im Idealfall der Zentralprojektion würde dazu die Brennweite des Objektivs ausreichen. Die physikalische Realität der Bildaufnahme weicht im allgemeinen mehr oder weniger stark von dieser Annahme ab. Bei den unerwünschten Veränderungen im Messbild handelt es sich zum einen um optische Verzeichnungen des abbildenden Objektivs und zum anderen um geometrische Bildfehler, die aus der Art der Aufzeichnung resultieren. Die weiteren inneren Parameter beschreiben diese Abweichungen in einer Reihe von funktionalen Modellen.

Zur Bestimmung der unbekannten Modellparameter bietet die Photogrammetrie leistungsfähige Verfahren an. Durch Aufnahme von Passpunkten auf einem Kalibrierkörper (Bild 5) aus verschiedenen Beobachtungspositionen lassen sich die Abbildungsstrahlen rekonstruieren. Des Weiteren ist es sinnvoll, präzise Längennormale in den Vorgang einzubeziehen, die für eine exakte Maßstabsverkörperung im Aufnahmesystem sorgen.

Bild 5. Kalibrierkörper mit codierten Passpunkten (Quelle: Fraunhofer IFF)

Bild 5. Kalibrierkörper mit codierten Passpunkten (Quelle: Fraunhofer IFF)

Das entstehende System von Transformationsgleichungen wird durch eine Bündelblockausgleichung gelöst, deren Ergebnis alle zu Beginn des Abschnittes genannten Parameter sind, die das Mess-System beschreiben.

2.2 Bildauswertung

Während des Messvorgangs fällt eine große Anzahl von Bildaufnahmen des Höhenprofils des zu vermessenden Objekts an. Die erreichbare Präzision des Messergebnisses hängt entscheidend von der korrekten Auswertung dieser Aufnahmen ab.

Das Intensitätsprofil des Lasers quer zu seiner Längsausdehnung lässt sich idealisiert durch eine Gaussverteilung beschreiben. Dieses findet sich mehr oder weniger störungsbehaftet auch in den Kamerabildern wieder. Ausgewertet wird deshalb jeweils ein Schnitt der Laserlinie senkrecht zu ihrem Verlauf im Bild. Unter Einbeziehung des Modells der Glockenkurve lässt sich subpixelgenau der Punkt des Intensitätsmaximums bestimmen (Bild 6). Durch die Analyse der Form des Intensitätsprofils ist auch eine qualitative Aussage über den Messpunkt möglich. So können störende Reflexionen erkannt und eliminiert werden.

Bild 6. Aufnahme und 2-D-Auswertung einer Laserlinie (Quelle: Fraunhofer IFF)

Bild 6. Aufnahme und 2-D-Auswertung einer Laserlinie (Quelle: Fraunhofer IFF)

Die beschriebene Vorgehensweise wird für den gesamten Verlauf der Laserlinie im Bild angewendet. Ausgehend von dem im Einmessvorgang bestimmten Kameramodell, ist es nun möglich, für jeden Punkt des Intensitätsmaximums den Vorwärtsschnitt durchzuführen. Das bedeutet, ein Strahl, ausgehend vom Abbildungszentrum der Kamera, durch die gefundene Bildkoordinate hindurch schneidet die Lichtebene in genau einem Punkt, der die Oberfläche des Messobjekts repräsentiert. Beim Vorwärtsschnitt sind zusätzlich die Verzeichnungsparameter des Objektivs der Kamera zu berücksichtigen.

Auf diese Weise erhält man zunächst eine Konturlinie des Messobjekts. Durch die definierte Bewegung des Lichtschnittsensors oder des Objektes können dann die Konturlinien in ein gemeinsames Koordinatensystem überführt werden und ergeben die digitalisierte Gesamtkontur.

3 Grenzen des Lichtschnittverfahrens

Die physikalischen Grenzen der Messunsicherheit werden bei Triangulationsverfahren vor allem durch die Beobachtungsapertur (Blendenöffnung der Kamera), durch die Oberflächentextur sowie durch den Triangulationswinkel festgelegt.

Ein großer Triangulationswinkel verringert die Messunsicherheit, verursacht jedoch Abschattungen an steilen Kanten. Deshalb sind das Hineinmessen in enge Bohrungen und die Erfassung von Hinterschneidungen grundsätzlich problematisch.

Oberflächen mit ausgeprägter Riefenstruktur durch Bearbeitung können große lokale Messfehler verursachen. Ebenfalls kritisch sind Oberflächen, die lokal spiegeln. In beiden Fällen können sehr hohe Dynamikunterschiede in der Bildhelligkeit auftreten. Diese lassen sich nur in gewissen Grenzen durch eine optimale Anordnung der Sensorkomponenten zum Messobjekt reduzieren. Ebenfalls kritisch sind Volumenstreuer, bei denen also das Licht durch die Oberfläche in das Volumen eindringt, wie beispielsweise bei manchen Kunststoffen, bei Keramik oder bei medizinischen Präparaten. Solche Oberflächen können, wenn es die Anwendung zulässt, durch Besprühen mit einer dünnen Kalkschicht präpariert werden, wodurch sich die erreichbare Messunsicherheit deutlich verbessern lässt.

Für den Lichtschnittsensor gibt es wie für alle Triangulationsverfahren eine untere Grenze der Messunsicherheit, die prinzipiell nicht unterschritten werden kann. Sie wird durch das Specklerauschen verursacht, das bei jeder Art von (teil-)kohärenter Beleuchtung an rauen Oberflächen auftritt. Bei Beleuchtung mit kohärentem Licht erscheint eine beleuchtete, raue Oberfläche nicht gleichmäßig hell, sondern weist eine körnige Struktur (Speckle) auf. Die Helligkeitsunterschiede werden durch konstruktive bzw. destruktive Interferenz des Lichts verursacht, das an ‚Bergen' und ‚Tälern' der Oberfläche reflektiert wird. Bei konstruktiver Interferenz tritt ein helles Speckle auf, bei destruktiver ein dunkles. Die Struktur des abgebildeten Lichtmusters ist damit mit einem ‚optischen Rauschen' behaftet (Bild 7). Daher ist die Positionsbestimmung nur mit einem prinzipiellen minimalen Messfehler möglich, der durch nachträgliche Verarbeitung der Daten nicht mehr verringert werden kann. Dieser statistische Messfehler wird kleiner, wenn die Specklegröße verringert wird.

Bild 7. Durch Speckle, direkte Reflexionen und Oberflächenrauheit gestörte Laserlinie (Quelle: Fraunhofer IFF)

Bild 7. Durch Speckle, direkte Reflexionen und Oberflächenrauheit gestörte Laserlinie (Quelle: Fraunhofer IFF)

Um den Einfluss der Speckle möglichst gering zu halten, ist es nötig, die Apertur der Beobachtungsoptik möglichst groß zu wählen. Dadurch wird jedoch die nutzbare Schärfentiefe der Kamera und damit der Messbereich des Sensors unter Umständen sehr klein. Hier muss ein Kompromiss gefunden werden, oder man verändert den optischen Aufbau durch Verkippen des Kamerachips (Scheimpflug-Bedingung), um dieses Problem zu umgehen.

Auf idealen (kooperativen) Oberflächen wie Gips und sandgestrahltem Metall lassen sich Messunsicherheiten bis zu wenigen Mikrometern erreichen. Weist die Oberfläche dagegen eine deterministische Struktur mit Kratzern und Riefen auf, so ist eine deutlich - um den Faktor 5 bis 10 - größere Messunsicherheit zu erwarten.

Dipl.-Ing. Erik Trostmann. Lichtschnittverfahren. In: Norbert Bauer (Hrsg.). Leitfaden zu Grundlagen und Anwendungen der optischen 3-D-Messtechnik, Erlangen 2003, S. 4-7. Mit freundlicher Genehmigung der Fraunhofer-Allianz Vision , Erlangen.

DIN EN ISO 9001:2015

Zum ISO 9001:2015 Special

Prozesswelt

Serie zum Thema Prozesse, veröffentlicht von QM-Experten deutscher Unternehmen gemeinsam mit der N5 GmbH und der Fachzeitschrift QZ

Zur Prozesswelt