nach oben
Meine Merkliste
Ihre Merklisteneinträge speichern
Wenn Sie weitere Inhalte zu Ihrer Merkliste hinzufügen möchten, melden Sie sich bitte an. Wenn Sie noch kein Benutzerkonto haben, registrieren Sie sich bitte im Hanser Kundencenter.

» Sie haben schon ein Benutzerkonto? Melden Sie sich bitte hier an.
» Noch kein Benutzerkonto? Registrieren Sie sich bitte hier.
Ihre Merklisten
Wenn Sie Ihre Merklisten bei Ihrem nächsten Besuch wieder verwenden möchten, melden Sie sich bitte an oder registrieren Sie sich im Hanser Kundencenter.
» Sie haben schon ein Benutzerkonto? Melden Sie sich bitte hier an.
» Noch kein Benutzerkonto? Registrieren Sie sich bitte hier.

« Zurück

Ihre Vorteile im Überblick

  • Ein Login für alle Hanser Fachportale
  • Individuelle Startseite und damit schneller Zugriff auf bevorzugte Inhalte
  • Exklusiver Zugriff auf ausgewählte Inhalte
  • Persönliche Merklisten über alle Hanser Fachportale
  • Zentrale Verwaltung Ihrer persönlichen Daten und Newsletter-Abonnements

Jetzt registrieren
Merken Gemerkt
04.11.2016

Vision-Sensor der Reihe Visor von Sensopart

Vision-Sensor mit Kalibrierfunktion

Der Vision-Sensor erkennt das Objekt, der Roboter nimmt es auf – damit dieses Zusammenspiel in der Praxis funktioniert, müssen die Sensorbilder zuvor in Roboterkoordinaten umgerechnet werden. Aktuelle Vision-Sensoren verfügen über eine Kalibrierfunktion, mit der sich diese Umrechnung mit wenigen Mausklicks konfigurieren lässt.

Vision-Sensor der Reihe Visor (© Sensopart)

Wo liegt das Teil genau? An welcher Stelle fasst man es am besten an? Ist für die Aufnahme ausreichend Platz oder liegt ein anderes Teil im Weg? All diese Informationen benötigt ein Roboter, um ein Teil von einem Förderband oder einem Vibrationsförderer aufzunehmen. Die nötigen Informationen liefert ihm ein bildverarbeitender Vision-Sensor.

Das Problem dabei: Sensor und Roboter arbeiten mit verschiedenen Koordinatensystemen und Maßeinheiten. Der Ursprung (0,0) der Sensorkoordinaten liegt beispielsweise in der Bildmitte oder in der oberen linken Bildecke, und Längenangaben werden in Bildpixeln ausgegeben; der Roboter hingegen benötigt alle Angaben in Millimetern und bezogen auf einen realen Ort in der Welt, zum Beispiel seinen Fußpunkt.

Zur Konfiguration einer Pick-and-Place-Anwendung gehört somit zwingend eine Koordinatentransformation von Bild- in Roboterkoordinaten (Bild 1). Diese bedeutete bisher einen nicht unerheblichen Programmieraufwand, denn neben der Teileposition müssen in der Robotersteuerung auch Faktoren wie die perspektivische Bildverzerrung aufgrund eines schrägen Sensorblickwinkels sowie die vor allem bei kleinen Brennweiten auftretende signifikante Kissenverzeichnung des Sensorobjektivs berücksichtigt werden – eine mathematisch anspruchsvolle und entsprechend zeitaufwendige Aufgabe.

Kalibrierung im Sensor statt Programmierung in der Steuerung

Bei der Einrichtung einer Pick-and-Place-Anwendung bei einem süddeutschen Automobilzulieferer wurde nun erstmals ein anderer Weg beschritten. Anstatt die Koordinatentransformation in der Steuerung des eingesetzten Sechs-Achs-Roboters vorzunehmen, wurde sie in den Sensor verlagert. Hierzu setzte man einen Vision-Sensor der Reihe Visor des Herstellers Sensopart, Gottenheim, ein, der über eine entsprechende Kalibrierfunktion verfügt; damit ließ sich der Einrichtungsaufwand auf ein Minimum reduzieren.

Die sonst händisch zu erstellenden Routinen sind bereits im Sensor vorkonfiguriert und müssen lediglich an den konkreten Einsatzfall angepasst werden. Dies geschieht in der Visor-Konfigurationssoftware mithilfe einer sogenannten Punktepaarliste. Dabei handelt es sich um eine Liste korrespondierender Punkte in Bild- und Roboterkoordinaten. Ein Punktepaar in der Liste wird erzeugt, indem der Roboter ein geeignetes Kalibrierteil – z. B. ein rotationssymmetrisches, gut zu greifendes Teil – an einer beiliebigen Position im Sichtfeld des Sensors ablegt.

Die Positon des Roboters wird aus der Robotersteuerung übernommen und in die Spalte "Weltkoordinaten" der Punktpaarliste eingetragen. Danach wird die entsprechende Position im Sensorbild mithilfe einer grafischen "Snap"-Funktion ermittelt und in der Spalte "Bildkoordinaten" den Roboterkoordinaten zugeordnet.

Damit ist ein Punktepaar bestimmt. Dieser Ablauf wird nun noch mindestens fünfmal wiederholt, sodass am Ende wenigstens sechs Punktepaare in der Liste stehen. Sobald diese Anzahl von Punktepaaren erfasst ist, errechnet der Sensor die Koordinatentransformation und kompensiert zugleich eine perspektivische Verzerrung und Objektivverzeichnung. Jede Teileposition wird dem Roboter ab jetzt in in seinem eigenen Koordinatensystem übermittelt, sodass er die Teile ohne weitere Umrechnung direkt greifen kann.

Der Kalibriervorgang kann auch mittels Schnittstellenkommandos z. B. via Ethernet/IP von der Robotersteuerung aus automatisiert ausgeführt werden. Die Punktepaarliste wird dabei im Fall "im Dialog" zwischen Roboter und Sensor automatisch gefüllt. Dies ist sehr praktisch bei einem Umbau oder einer Nachjustage von Anwendungen, z. B. wenn nach einer Erstkalibrierung durch den Integrator eine Rekalibrierung durch den Maschinenbediener vorgenommen werden soll.

Anpassung an Teile mit unterschiedlicher Geometrie

Sollten sich die realen Teile geometrisch vom Kalibrierteil unterscheiden oder Teileformen häufiger wechseln, lässt sich die Kalibrierung auf einfache Weise anpassen. So kann ein vertikaler Versatz (z-Versatz, positiv oder negativ) zwischen Kalibrier- und Messebene berücksichtigt werden.

Außerdem ist eine Greifpunktkorrektur möglich, falls das Teil nicht mittig, sondern z. B. an einem seitlichen Anfasser gegriffen werden soll. Soll ein Teil an seiner Außenkontur gegriffen werden, kann mit einer weiteren Funktion der verfügbare Freiraum rund um das zu greifende Teil überprüft werden. Übereinander- oder zu eng aneinanderliegende Teile werden vom Sensor dann nicht erst an den Roboter gemeldet.

Die Kalibrierfunktion der Visor-Reihe vermindert laut Hersteller den Einrichtungsaufwand von Pick-and-Place-Anwendungen erheblich, der Programmieraufwand in der Robotersteuerung oder SPS entfällt. Die Routine für die Koordinatentransformation einschließlich Korrekturfunktionen ist bereits im Sensor hinterlegt und muss lediglich einmalig mit einem einfachen Teach-in-Vorgang an die reale Anwendung angepasst werden. Damit ergeben sich für Anwender und Integratoren signifikante Effizienzvorteile.

Franz Schwarz

Sensopart Industriesensorik GmbH
www.sensopart.de

Unternehmensinformation

SensoPart Industriesensorik GmbH

Nägelseestr. 16
DE 79288 Gottenheim
Tel.: 07665 94769-0
Fax: 07665 94769-730

Diese Beiträge könnten Sie auch interessieren
Newsletter

Sie wollen immer top-aktuell informiert sein? Dann abonnieren Sie jetzt den kostenlosen Newsletter!

Hier kostenlos anmelden

Beispiel-Newsletter ansehen