Mit ihrer hohen Genauigkeit über große Messbereiche haben sich Lasertracker ihren Ruf als revolutionärer Prozessfortschritt für die 3D-Messtechnik bei großen Bauteilen u. a. in der Luft- und Raumfahrt, im Bodentransport, im Energiesektor und in der Schiffsfertigung erworben. Die Optimierung von Lasertrackern zur Verbesserung ihrer Effizienz umfasste die Arbeit mit zwei Bedienern, die Anzeige von Geometrien auf gemessenen Teilen mit externen Projektoren und die Verwendung eines Mobiltelefons als Fernbedienung.
Diese Techniken sind nun an ihre Grenzen gestoßen.
Glücklicherweise gibt es bereits eine Technologie, mit der diese Grenzen überschritten werden können. Mit ihrem holografischen Display, den Trackingsystemen, Kameras, 3D-Scannern und der leistungsstarken Software steigert die Microsoft HoloLens 2 Augmented Reality Brille, zusammen mit der PolyWorks|AR™ App von InnovMetric, die Leistung von Messungen von großen Bauteilen um ein Vielfaches. Mit Mixed Reality wird die Messung von großen Bauteilen nie mehr dieselbe sein:
Für Objekte, die kleiner als zwei Meter sind, ist die 3D-Messung ziemlich einfach. Anwender kennen jederzeit ihre Position in Bezug auf das Messobjekt. Sie können in der Regel erkennen, was sie auf dem Computerbildschirm sehen und eine Position auf dem zu messenden Teil zuordnen. Und sie wissen, wie sie das nächste Prüfmerkmal in einer vordefinierten Reihenfolge erreichen und schnell zum Computer zurückkehren können, wenn sie eine Maus oder eine Tastatur zur Interaktion mit der 3D-Messsoftware benötigen.
Wenn die Größe des zu messenden Werkstücks jedoch über 5 Meter hinausgeht, werden auch die Probleme mit der Messleistung größer. Die Anwender haben unter Umständen Schwierigkeiten, ihre Position im Raum zu erkennen und ein Messobjekt von einer Vielzahl anderer Merkmale zu unterscheiden. Es wird immer schwieriger, die Übereinstimmung zwischen einem Computerbildschirm und einem physischen Standort herzustellen. Der Bediener muss unter Umständen mehrere Meter zurücklegen, um das nächste Messmerkmal zu erreichen. Und die Rückkehr zum Computer, um die 3D-Messsoftware zu bedienen, erhöht die Arbeitsdauer.
Als die Lasertracker auf den Markt kamen, begannen die Kunden schnell, ihre Messverfahren für große Bauteile anzupassen. Solche Aufgaben erforderten oft zwei Bediener: einen, der die Messungen durchführte, und einen anderen, der am Computer saß und die Messsoftware bediente, um Funktionen aufzurufen und Fragen zu beantworten. Andere Anpassungen bestanden darin, den Computerbildschirm auf einen großen Monitor oder Beamer an der Wand zu projizieren, um den Anwendern eine bessere Sicht zu ermöglichen.
Diese ersten Lösungen waren zwar schon besser, aber immer noch unvollkommen. Da zwei Bediener benötigt werden, verdoppelt sich der Personalaufwand für die Messaufgaben und es ist sehr schwierig, den notwendigen Augenkontakt zu einem feststehenden Bildschirm zu halten, während man sich an einem großen Bauteil bewegt.
Glücklicherweise ermöglichten zwei Technologien für die Anwender erhebliche Performancesteigerungen bei 3D-Messaufgaben mit großen Bauteilen.
Bei der ersten handelt es sich um Projektionstechnologien: Laserprojektoren, die 3D-Konturen mithilfe eines Laserstrahls projizieren und flächenbasierte Projektoren, die Bilder projizieren. Beide Technologien können Grafiken zum geführten Messen und die Messergebnisse auf die Oberfläche der gemessenen Teile projizieren. Dies erleichtert die Durchführung von Messabläufen und die Analyse der Messergebnisse.
Die Verwendung von Projektoren kann jedoch schwierig und einschränkend sein. Die korrekte Lokalisierung des Projektors im Koordinatensystem des gemessenen Teils bereitet Schwierigkeiten. Außerdem kann ein Projektor nur Oberflächen erreichen, die von seinem Standpunkt aus sichtbar sind. Daher ist es erforderlich, den Projektor an mehrere Standorte zu versetzen oder mehrere Projektoren anzuschaffen, um große Baugruppen effizient zu erfassen. Bei neuen Messaufgaben sind neue Einstellungen erforderlich.
Die zweite Technologie, die die Messung großer Bauteile verbesserte, war das Mobiltelefon. Über spezielle Apps lässt sich dieses schnell in eine Fernbedienung verwandeln. Die Anwender können nicht nur die Grafiken zum geführten Messen und die Messergebnisse auf dem Display des Mobiltelefons sehen, sondern auch ein Merkmal auf dem Bildschirm mit einer Stelle auf dem gemessenen Teil abgleichen. Voraussetzung ist, dass sie sich in der Nähe des 3D-Messgeräts befinden und eine 3D-Messsoftware verwenden, die ihre Anzeige automatisch an die Position des 3D-Messgeräts anpasst.
Anwender können auch aus der Ferne mit dem Computer interagieren, was in vielen Fällen Messungen von großen Bauteilen durch einen einzigen Bediener ermöglicht.
Außerdem sind die visuellen 3D-Informationen auf den Handy-Fernbedienungen immer verfügbar, da es keine Schattenbereiche gibt, die bei Projektoren auftreten können.
Doch auch Mobiltelefone haben ihre Grenzen. Bei vielen fehlen die Sensoren, um ihre Orientierung im 3D-Raum zu messen. Die Bildschirmanzeigen entsprechen nur dann der Sicht des Bedieners auf das Messobjekt, wenn sich das Telefon in der Nähe des 3D-Messgeräts befindet. Außerdem muss der Bediener das Telefon während der Messung tragen. Wenn er zum Beispiel auf eine Leiter steigt, benötigt er beide Hände um sicher aufzusteigen.
Die aufkommende Mixed-Reality-Technologie verändert die Messtechnik der großen Bauteile da sie, ohne deren Einschränkungen, die gleichen Vorteile wie Projektoren und Fernbedienungen bietet und gleichzeitig eine Reihe zusätzlicher, leistungsstarker Funktionen bereitstellt.
Im Vergleich zur Verwendung von Projektoren oder Mobiltelefonen bietet die Microsoft HoloLens 2 Augmented Reality Brille zahlreiche Vorteile. Sie kann:
Diese smarten Brillen ermöglichen die Entwicklung von Mixed-Reality-Anwendungen, die mit 3D-Messsoftware für Projektions- und Fernsteuerungsfunktionen verbunden sind. Stabile Geometrien, die auf die zu messenden Teile projiziert werden, ermöglichen die Führung und Überprüfung der Messergebnisse, unabhängig von der Position des Bedieners und ohne Schattenbereich. Es gibt keine feste Anordnung; die Bediener können schnell von einem Teil zum anderen wechseln und mit instinktiven Gesten mit der Benutzeroberfläche interagieren. Die Messung ist sicherer, da die Bediener freihändig arbeiten können.
Die Sensoren von Mixed-Reality-Geräten ermöglichen auch wichtige Innovationen, die mit Projektoren oder Fernbedienungen nicht möglich sind. Da die Position und der Blickwinkel des Bedieners immer bekannt sind, ist es einfach, einen verlorenen Lasertrackerstrahl auf den Bediener umzulenken. Das Gleiche gilt für die Änderung der Position des Bedieners, wenn eine große Verschiebung erforderlich ist. Die Steuerung eines Cursors und die Erstellung eines 3D-Punkts an einer bestimmten Stelle ist mit dem Kopf und den Augen leicht zu bewerkstelligen, ebenso wie das Anbringen von Anmerkungen auf einer Farbkarte, die Meldung eines Fehlers oder die Festlegung eines Referenzpunkts für eine Ausrichtung.
Anwender können auch ihre Hände benutzen, um die 3D-Geometrie in Bezug auf die Position des Teils, zu manipulieren. Sie können 3D-Hologramme ausrichten, um das Mixed-Reality-Gerät in Bezug auf das Teil zu lokalisieren und automatisch Mixed-Reality-Bilder erfassen, die Realität und Hologramme kombinieren. So kann die Rückverfolgbarkeit von manuellen Messungen sichergestellt werden.
Sehen Sie sich mit Hilfe von Mixed Reality
den Fortschritt Ihrer Messung in Echtzeit an.