Die Herausforderungen von Multi-Sensor-Vernetzung – Teil 2

Im ersten Teil haben wir uns mit den vier größten Herausforderungen bei der Multi-Sensor-Vernetzung beschäftigt: (1) Sensorverkabelung und (2) Sensorerkennung, -kartierung und -zuweisung. Bleiben also noch zwei Herausforderungen: (3) Sensorausrichtung auf ein gemeinsames Koordinatensystem und (4) weitmaschige oder dichte Netzwerkverarbeitung.

Sensorausrichtung

In einem Netzwerk müssen alle Sensoren gemeinsam ausgerichtet werden, damit Messungen von einem Sensor auf eine genaue Position auf dem Messobjekt bezogen werden kann. Dafür sind Ausrichtungstransformationen nötig, die einzelne Sensorkoordinaten in ein gemeinsames Koordinatensystem (Weltkoordinaten) umwandeln.

Multi-Sensor Alignment to a Common Coordinate System

Dieser Ausrichtungsprozess kann auf verschiedene Arten erfolgen. Ein gängiger Ansatz ist die Verwendung eines bekannten Messobjekts mit präzisen Abmessungen und einer bestimmten Form, die von allen Sensoren gescannt werden kann. Diese Scans müssen ein oder mehrere Objektmerkmale wiedergeben, die zur Bestimmung der Sensorposition in Weltkoordinaten verwendet werden können.

Bei einem anderen Verfahren, werden Rückstrahler am Sensorgehäuse befestigt und ein Lasertracker verwendet, um die Ausrichtung jedes Sensors zu bestimmen und in Weltkoordinaten positionieren.

Weitmaschige und dichte Netzwerkverarbeitung

In einem dichten Netzwerk werden Daten von mehreren Sensoren zu einer einzelnen 3D-Punktwolke zusammengefügt. Bei der Holzoptimierung wird beispielsweise ein dichtes Netzwerk benötigt, bei dem Daten von sich überlappenden oberen und unteren Sensoren zusammengefügt werden, um ein einzelnes 3D-Modell mit zwei Oberflächen (oben und unten) zu erzeugen. Diese Oberflächen werden dann für die maximale Volumenrückgewinnung analysiert, um optimale Schnittlösungen zu erzeugen. Ein zweites Beispiel ist die Proteinportionierung, bei der Daten für die Wiedergabe des Objektvolumens zu einem 3D-Modell zusammengefügt werden. Damit wird dann die Portionierung in kleinere Gewichte optimiert und der Ausschuss minimiert.

Im Gegensatz dazu überlappen sich die Sensoren bei einem weitmaschigen Sensornetzwerk nicht und es wird auch keine gemeinsame 3D-Punktwolke erstellt. Stattdessen messen und melden die Sensoren die Hauptmerkmale unabhängig voneinander. Ein Beispiel für ein weitmaschiges Netzwerk findet man in der Automobilbranche bei der Karosserierohbau-Inspektion. Hier sind die Sensoren, für die Messung von Hauptmerkmalen, strategisch und fest um den Metallkörper montiert. Bei dieser Anwendung decken die Sensoren nicht jeden Millimeter der Oberfläche ab, sondern nur Bereiche, die eine genaue Merkmalsprüfung erfordern.

Sowohl in dichten als auch in weitmaschigen Netzwerken erzeugt der Sensor die Daten in Weltkoordinaten, damit es auf die genaue Objektposition zurückgeführt werden kann.

Das einfachste Netzwerk: Duale-Sensor-Vernetzung

Die einfachste Form eines Netzwerks besteht aus zwei Sensoren, diese bezeichnet LMI als Main (Hauptsensor) und Buddy (Partner). Diese Netzwerke werden zur Berechnung von Dicke oder zur Bestimmung von zwei Kanten auf einer breiten Materialbahn verwendet, z.B. Streifen auf einem Autoreifen.

Bei einem 3D-Smart-Sensor ist die Main/Buddy-Konfiguration eine integrierte Funktion. Bei diesem Aufbau wird der erste Sensor (Main) mit dem zweiten Sensor (Buddy) gekoppelt. Der Hauptsensor erkennt dabei den Buddy-Sensor automatisch, wenn beide mit dem gleichen Netzwerk verbunden sind.

Nach der Kopplung sendet der Buddy-Sensor seine Daten an den Hauptsensor. Beide Datensätze werden dann in einem gemeinsamen Koordinatensystem zusammengeführt und für Messungen, Entscheidungen und die Ergebnisfindung verwendet.

Für mehr Informationen zur Dualen-Sensor-Vernetzung, lesen Sie diesen Blogpost.

Größere Netzwerkunterstützung

In vielen Fällen wird mehr als nur ein Buddy benötigt. Stellen Sie sich zum Beispiel einen Fall vor, in dem 20 Sensoren (10 oben, 10 unten) für das Scannen eines sehr langen Objekts benötigt wird. Aus den Daten aller Sensoren wird dann eine große 3D-Punktwolke generiert, um das Volumen des Objekts zu berechnen.

Die heutigen 3D-Smart-Sensoren unterstützen die Erkennung, Zuweisung, Zuordnung, Ausrichtung und Verknüpfung großer Multi-Sensor-Netzwerke, um diese Art von Anwendungen unter Verwendung eines “entgegengesetzten” Layout-Schemas zu lösen. Für eine benutzerfreundliche Anwendung, nutzen Multi-Sensor-Systeme in einem 3D-Smart-Sensor eine einzige GUI zum Messen, dem Anzeigen von Ergebnissen und die Entscheidungsfindung.

Multi-Sensor Network Wide Orientation

Sensorbeschleunigung

Da die Multi-Sensor-Vernetzung viele Daten erzeugt, werden bei der Sensorbeschleunigung die Datenströme der Sensoren auf einen PC, mit genug Kapazitäten für Datenverarbeitung und Speicher, umgeleitet. Mehr über die Gocator Sensorbeschleunigung (Gocator Accelerator) finden Sie hier.


Sie wollen mehr über 3D-Smart-Sensoren und deren fortschrittliche Mutli-Sensor-Vernetzung erfahren? Laden Sie sich das Gocator Multi-Sensor-Vernetzung Datenblatt herunter.