Smarte 3D-Snapshot-Sensoren für Roboteranwendungen
Für das Erfassen von Objekten oder Merkmalen nutzen Snapshot-Sensoren die Streifenlichtprojektion und erstellen daraus eine dichte 3D-Punktwolke. Durch das Stereo-Kameradesign werden mit einem einzigen Snapshot gleich zwei verschiedene Blickwinkel aufgenommen.
Jede 3D-Punktwolke besteht aus Millionen von Datenpunkten und geben die genaue 3D-Form eines Messobjekts wieder. Besonders in Roboteranwendungen und für Pick-and-Place-Prozesse sind dichte 3D-Punktwolken nützlich, da die Scandaten sowohl Position als auch Ausrichtung eines Objektes bestimmen.
Smart-3D bedeutet … nahtlose Roboterintegration
Ein smarter 3D-Snapshot-Sensor erfasst nicht nur 3D-Daten, sondern analysiert die gesammelten Daten auch und identifiziert so die Lage und Ausrichtung jedes einzelnen Objektes. Der Sensor übermittelt diese XYZ- sowie Winkelinformationen dann an einen Industrieroboter. Der Smart-Sensor benötigt keine zusätzliche externe Software oder PC, um mit dem Roboter zu kommunizieren. Alles ist im Sensor integriert.
So kann Gocator® zum Beispiel auch an einen Roboter-Effektor montiert werden. Mit einer Hand-Augen-Kalibrierung werden dann die Snapshotskoordinaten in Roboterkoordinaten umgewandelt. Gocator bietet integrierte Werkzeuge, die Objekte lokalisieren und diese Messungen über Strings an eine Robotersteuerung übermitteln.
Die Integration von Gocator® in eine Roboteranwendung ist mit ein paar einfachen Schritten in der browserbasierten Benutzeroberfläche erledigt:
-
Triggern Sie einen Snapshot-Sensor für die Datenerfassung
-
Aktivieren und konfigurieren Sie die Objekterkennung
-
Aktivieren und konfigurieren Sie Teilübereinstimmung für die Orientierung
-
Fügen Sie eine Begrenzungsbox hinzu für die Position
-
Setzen Sie die Ausgabe auf ASCII und konfigurieren Sie “String”, um Messungen an einen UR-Roboter zu übermitteln
Sobald Sie diese kurze Anleitung befolgt haben, ist ihr Gocator-geführter Roboter bereit für jede Pick-and-Place-Anwendung!
Erfahren Sie mehr über 3D-Smart-Sensoren und bildverarbeitungsgeführte Robotersysteme in folgendem White Paper.