Präzise Messung für Linienstruktur-Lichtbildsensoren mit großer Reichweite

Nachricht

HeimHeim / Nachricht / Präzise Messung für Linienstruktur-Lichtbildsensoren mit großer Reichweite

Dec 28, 2023

Präzise Messung für Linienstruktur-Lichtbildsensoren mit großer Reichweite

Scientific Reports Band 13, Artikelnummer: 7234 (2023) Diesen Artikel zitieren 502 Zugriffe auf Metrikdetails Hohe Präzision und ein großer Messbereich sind das Ziel eines jeden dreidimensionalen Scanners.

Wissenschaftliche Berichte Band 13, Artikelnummer: 7234 (2023) Diesen Artikel zitieren

502 Zugriffe

Details zu den Metriken

Hohe Präzision und ein großer Messbereich sind das Ziel eines jeden dreidimensionalen Scanners. Bei einem Lichtbildsensor mit Linienstruktur hängt die Messgenauigkeit von seinen Kalibrierungsergebnissen ab, dh von der Bestimmung des mathematischen Ausdrucks der Lichtebene im Kamerakoordinatensystem. Da es sich bei den Kalibrierungsergebnissen jedoch um lokal optimale Lösungen handelt, ist eine hochpräzise Messung in einem großen Bereich schwierig. In diesem Artikel geben wir eine genaue Messmethode und das entsprechende Kalibrierungsverfahren für einen Lichtsichtsensor mit Linienstruktur und großem Messbereich an. Zum Einsatz kommen motorisierte lineare Translationstische mit einem Verfahrbereich von 150 mm und ein planares Ziel, bei dem es sich um eine Richtplatte mit einer Bearbeitungsgenauigkeit von 0,05 mm handelt. Mit Hilfe des linearen Translationstischs und des planaren Ziels werden Funktionen erhalten, die die Beziehung zwischen dem Mittelpunkt des Laserstreifens und dem senkrechten/horizontalen Abstand angeben. Sobald das Bild des Lichtstreifens erfasst ist, können wir anhand der normalisierten Merkmalspunkte ein präzises Messergebnis erhalten. Im Vergleich zu einer herkömmlichen Messmethode ist keine Verzerrungskompensation erforderlich und die Messgenauigkeit wird erheblich verbessert. Experimente zeigen, dass der quadratische Mittelfehler der Messergebnisse gemäß unserer vorgeschlagenen Methode im Vergleich zur herkömmlichen Methode um 64,67 % reduziert wird.

Ein dreidimensionaler Linienstruktur-Lichtsichtsensor (LSLVS) besteht normalerweise aus einem Bildsensor und einem Linienlaserprojektor. Aufgrund seines großen Messbereichs, seiner hohen Präzision, der einfachen Informationsextraktion usw. wird es häufig im Bereich der industriellen Messung eingesetzt. Diese LSLVS können entsprechend ihrer Konstruktion in zwei Kategorien eingeteilt werden.

In der ersten Kategorie ist der Bildsensor eine normale Kamera mit einem normalen Objektiv1,2, dh die Bildebene ist parallel zur Objektivebene. Die Beziehung zwischen Bildsensor und Laserprojektor ist während des Messvorgangs unveränderlich und trianguliert. Raumpunkte können bestätigt werden, sobald die Beziehung bestimmt ist, was als Kalibrierung von LSLVS bezeichnet wird.

Bisher gibt es viele Kalibrierungsmethoden für LSLVS. Diese Methoden können entsprechend der Art und Weise, wie Merkmalspunkte auf der Laserebene erhalten werden, in drei Kategorien eingeteilt werden: 3D-Ziel-basierte Methode, Planar-Ziel-basierte Methode und 1D-Ziel-basierte Methode3.

In der zielbasierten 3D-Methode werden in den letzten Jahren häufig geometrische Merkmale verwendet. Xiao et al.4 nutzten eine zusätzliche Einrichtung zur Steuerung des 3D-Ziels, d. h. eines sehr präzisen Metallwürfels, um sich in reiner Translation genau zu bewegen, um einen Fluchtpunkt der strukturierten Lichtebene und dann den Projektionswinkel des Lichts zu erhalten Der Flugzeugprojektor wurde vom Fluchtpunkt sowie der Basislinie, dem Schnittpunkt der strukturierten Lichtebene auf der x-Achse des Bildkoordinatensystems, gelöst. Yang et al.5 erhielten zwei parallele Linien auf der strukturierten Lichtebene, indem sie ein 3D-Ziel mit zwei genau sichtbaren parallelen Ebenen verwendeten. Wenn mehrere Fluchtpunkte erhalten wurden, konnte der Normalenvektor der strukturierten Lichtebene abgeleitet werden. Da die Basislinie auf der Grundlage der Invarianz des Kreuzverhältnisses gelöst wurde, wurde die Kalibrierung der strukturierten Lichtebene durchgeführt. Leider ist die auf 3D-Zielen basierende Methode6,7,8 aufgrund des Problems der gegenseitigen Okklusion zwischen verschiedenen Zielebenen und weniger Merkmalspunkten nicht genau genug. Darüber hinaus ist es schwierig, das 3D-Ziel, normalerweise ein Würfel mit speziellem Zubehör, präzise herzustellen und die Kalibrierung vor Ort umständlich zu machen.

Die auf planaren Zielen basierende Methode ist für die Kalibrierung von LSLVS besser geeignet. Wei et al.9,10 verwendeten ein planares Ziel mit Schachbrettmuster, um die Kalibrierung abzuschließen. Basierend auf der Invarianz des doppelten Kreuzverhältnisses können die Schnittpunkte des Lichtstreifens und des Schachbretts unter dem Bildkoordinatensystem als genau bekannte Größe jedes Schachbretts ermittelt werden. Dann können genügend Merkmalspunkte auf der Lichtebene erhalten werden. Gemäß dem zugehörigen Anpassungsalgorithmus kann der Ausdruck der Lichtebene unter dem Kamerakoordinatensystem berechnet werden. Liu et al.11 schlugen eine neue Methode gemäß der Plücker-Matrix vor, um den Lichtstreifen auf einem planaren Ziel darzustellen. Wenn sich das Ziel an mehreren verschiedenen Positionen befindet, können Plücker-Matrizen aus Lichtstreifen erhalten werden. Dann kann der Ausdruck der Lichtebene durch Kombinieren der erhaltenen Plücker-Matrizen gelöst werden. Wei et al.12 kalibrieren ein LSLVS basierend auf verschwindenden Merkmalen. Fluchtpunkte der Lichtebene konnten aus dem Schnittpunkt des Lichtstreifens und der Fluchtlinie der Zielebene ermittelt werden. Sobald das planare Ziel an ausreichend verschiedene Positionen bewegt wurde, konnte der Normalenvektor der Lichtebene sowie die Fluchtlinie berechnet werden. Da die Größe des planaren Ziels genau bekannt ist, konnte daraus der Parameter D abgeleitet werden. Anschließend wurde die Funktion der Lichtebene im Kamerakoordinatensystem bestimmt.

Im Vergleich zur auf 3D-Zielen basierenden Methode und der auf planaren Zielen basierenden Methode wird die auf 1D-Zielen basierende Methode13 aufgrund ihrer bequemen Bedienung vorgeschlagen. Normalerweise können Merkmalspunkte auf der Lichtebene auf der Grundlage eines verwandten Algorithmus ermittelt werden, z. B. der Schnittpunkt des Lichtstreifens und eines 1D-Ziels, der auf der Grundlage der Invarianz des Kreuzverhältnisses ermittelt werden kann. Durch zufälliges Verschieben des 1D-Ziels an mehrere unterschiedliche Positionen können genügend Merkmalspunkte erhalten werden, um in die Lichtebene zu passen.

Da die relative Beziehung zwischen dem Sensor und dem Laserprojektor nicht unbedingt wie beim Sensor der ersten Kategorie erforderlich ist, ist dieser Sensortyp kostengünstig und praktisch. Leider sind aufgenommene Bilder über den gesamten Messbereich nicht scharf genug, um ein präzises Messergebnis zu erhalten, insbesondere in Z-Richtung (Höhenrichtung). Mit anderen Worten: Der Messbereich dieser Art von LSLVS in Höhenrichtung ist begrenzt.

In der zweiten Kategorie erfüllt die Beziehung zwischen Bildsensor und Laserprojektor strikt die Scheimpflug-Bedingung14, d. h. die CCD-Ebene, die Linsenebene und die Fokusebene (normalerweise eine Laserebene) schneiden sich in einer einzigen Linie, die als Scheimpflug-Linie bezeichnet wird . In diesem Fall wird der Messbereich vergrößert. Aufgrund der präzisen Bearbeitung ist diese Art von LSLVS teuer und wird häufig als kommerzieller Sensor wie KEYENCE LJ-X8000, COGNEX DS910B usw. verwendet. Darüber hinaus ist die Kalibrierungsmethode für diese Art von LSLVS schwierig. Shao et al.15 geben ein mathematisches Modell zur Definition der Kamera mit geneigtem Objektiv an. Anschließend wird der Messmodus für das LSLVS unter Scheimpflug-Bedingungen angegeben. Wenn sich das Ziel mit Kreismuster im Messbereich befindet, kann das LSLVS kalibriert werden. Da jedoch die Position/Lage des Ziels begrenzt ist, ist die Präzision der Kalibrierung nicht hoch genug.

Daher ist es wichtig, den Messbereich zu vergrößern und eine einfache Kalibrierungsmethode durchzuführen, um präzise Messergebnisse zu erhalten, was auch der Zweck aller Arten von 3D-Laserscannern ist. In dieser Arbeit schlagen wir eine Messmethode für das LSLVS im traditionellen Bauwesen einschließlich seiner Kalibrierungsmethode vor. Im Vergleich zu einer herkömmlichen Messmethode ist keine Verzerrungskompensation erforderlich und die Messgenauigkeit wird erheblich verbessert. Darüber hinaus kann dieser Ansatz auch auf das LSLVS unter Scheimpflug-Bedingungen angewendet werden.

Eine typische Struktur eines LSLVS in traditioneller Struktur ist in Abb. 1a dargestellt, während das entsprechende Messmodell in Abb. 1b dargestellt ist. Wie in Abb. 1a dargestellt, projiziert ein Laserprojektor einen Laserstreifen auf die Oberfläche des Messobjekts. Bilder des Laserstreifens werden von der Kamera erfasst. Gemäß dem Messmodell (das in Abb. 1b dargestellt ist) können 3D-Koordinaten von Merkmalspunkten auf der Laserebene unter dem Kamerakoordinatensystem berechnet werden.

(a) Die typische Struktur eines LSLVS und (b) sein Messmodell.

In Abb. 1b ist O-XYZ das Kamerakoordinatensystem (CCS), während o-xy das Bildkoordinatensystem (ICS) ist. Beim CCS liegt die Mitte der Kamera im Ursprung und die optische Achse zeigt in die positive Z-Richtung. Ein Raumpunkt P wird auf die Ebene mit Z = f0 projiziert, die unter dem CCS als Bildebene bezeichnet wird, wobei f0 die effektive Brennweite (EFL) ist. Angenommen, p = (x, y, 1)T ist die Projektion von P = (X, Y, Z)T auf die Bildebene. Unter dem idealisierten Lochkameramodell sind P, p und die Mitte der Kamera O kollinear. Die Beziehung zwischen der Kamera und dem Laserprojektor bleibt während des Messvorgangs unveränderlich12.

Traditionell ist die Bestimmung der Beziehung (dh der mathematische Ausdruck der Laserebene unter dem CCS) sehr wichtig, was als Kalibrierung eines LSLVS bekannt ist.

Das Abbildungsmodell einer Scheimpflug-Kamera kann in Abb. 2 dargestellt werden. Das OC-XCYCZC ist CCS, während das o-xy das ICS ist, das parallel zur Linsenebene verläuft. Mittlerweile können wir ein 3D-Koordinatensystem \(o{ - }xyZ_{c}\) erhalten. Wenn die Linse geneigt wird, wird \(o{ - }xyZ_{c}\) in o-XYZ umgewandelt. Die Transformationsmatrix kann als R definiert werden. Unter CCS befindet sich die Kameramitte im Ursprung und die ursprüngliche optische Achse zeigt in die positive ZC-Richtung. Beim Neigen des Objektivs wird die optische Achse in Z-Richtung umgewandelt. Ein Raumpunkt P wird auf die Ebene o-XY projiziert, die unter CCS als reale Bildebene bezeichnet wird. f0 (\(\left| {oO_{C} \, } \right|\)) ist die effektive Brennweite (EFL). Angenommen, \(p = \left( {x,y,1} \right)^{{\text{T}}}\) ist die Projektion von \(P = \left( {X,Y,Z} \right )^{{\text{T}}}\) auf der Bildebene. Unter dem idealisierten Pinhole-Bildgebungsmodell, dh dem idealen Modell der Kamera, sind P, p und das Kamerazentrum O kollinear14,16.

(a) Abbildungsmodell einer Scheimpflug-Kamera, (b) Messmodell eines LSLVS unter Scheimpflug-Bedingungen.

Für das zugehörige LSLVS erfüllt die Struktur die Scheimpflug-Bedingung, dh die Bildebene, die Linsenebene und die Lichtebene schneiden sich theoretisch in der Scheimpflug-Linie. Wie bekannt ist, ist der Ausdruck der Linsenebene unter dem CCS die Z-Ebene. Die Lichtebene kann ausgedrückt werden als:

wobei \(c_{\theta } = \cos \theta\) und \(s_{\theta } = \sin \theta\). α ist der Drehwinkel um die x-Achse, während β der Drehwinkel um die y-Achse und γ der Drehwinkel um die z-Achse ist.

Wie bekannt ist, ist das am häufigsten verwendete planare Ziel ein Schachbrettmuster, das zur Kalibrierung der kamerainternen Parameter mithilfe der Zhang-Methode17 verwendet wird. Wenn ein Laserstreifen auf das Ziel projiziert wird, können wir den Schnittpunkt des Lichtstreifens und der Seite jedes Streifens auf der Bildebene ermitteln (als Punkt D und Punkt D1 in Abb. 3).

Bestimmung von Merkmalspunkten auf planaren Zielen.

Da die Seitenlänge jedes Schachbretts genau bekannt ist, kann die Koordinate der Merkmalspunkte im Zielkoordinatensystem (TCS) basierend auf der Invarianz des Kreuzverhältnisses gelöst werden. Die Theorie wird wie folgt beschrieben:

Der Rasterabstand des Ziels ist genau als l bekannt, während die Länge von AD als l0 definiert werden kann (siehe Abb. 3). Basierend auf der Invarianz des Kreuzverhältnisses kann die folgende Gleichung erhalten werden:

Die tatsächliche Länge von AD kann gelöst werden, ebenso A1D1. Dann kann der Abstand zwischen Punkt D und Punkt D1 berechnet werden. In diesem Fall können die Koordinaten von Punkt D und Punkt D1 unter TCS bestätigt werden. Darüber hinaus kann jeder Merkmalspunkt zwischen Punkt D und Punkt D1 gemäß dem entsprechenden Interpolationsalgorithmus berechnet werden.

Der Steger-Algorithmus ist ein Extraktionsalgorithmus mit einer Subpixel-Präzision. Es kann verwendet werden, um die Mittellinie einer krummlinigen Struktur, beispielsweise eines Laserstreifens, zu extrahieren.

Definieren Sie die 2D-Grauwertverteilungsfunktion des Bildes als I(X, Y), wobei (X, Y) die Koordinaten des Bildpunkts sind. Die variable Menge der Grauwerte an der Position von (X, Y) wird als Δ definiert, während die Richtungsänderung als n definiert wird. n und Δ können durch die Hessische Matrix von I(X, Y) bestimmt werden. Die Hessische Matrix ist definiert als 18

wobei Hess die Nummerierung einer hessischen Matrix angibt und die anderen zugehörigen Notationen wie folgt definiert sind:

In Gl. (4) gxx, gxy und gyy sind die differentiellen diskreten Gaußschen Faltungskerne zweiter Ordnung und \(\otimes\) bezeichnet die Berechnung der Faltung. Diese beiden Eigenwerte der Hessischen Matrix bezeichnen das Maximum und das Minimum der zweiten Ableitung von I(X,Y). Mit anderen Worten: Die Eigenwerte der Hessischen Matrix geben Variationen in den Richtungen der schärfsten Änderung und der sanftesten Änderung an, und ihre entsprechenden Eigenvektoren sind die zugehörigen Richtungen.

Die Mittellinie der krummlinigen Struktur ist die Position, an der ihre Ableitung erster Ordnung Null ist. Dann kann das Zentrum der krummlinigen Struktur mit der Taylor-Expansion-Grauwertverteilungsfunktion zweiter Ordnung mit Subpixel-Genauigkeit bestimmt werden. Das Zentrum mit Subpixel-Genauigkeit kann ausgedrückt werden als:

Wo

(x0, y0) ist das pixelgenaue Zentrum, dessen Richtung durch den Eigenvektor der Hessischen Matrix bestimmt wird, gx und gy sind die partiellen Ableitungen erster Ordnung der Grauwertverteilungsfunktion in Position (x0, y0), während gxx, gxy, gyy sind die partiellen Ableitungen zweiter Ordnung der Grauwertverteilungsfunktion an der Stelle (x0, y0)19

Wenn wir Mittelpunkte von Linienstrukturmerkmalen (z. B. Lichtstreifen usw.) auf der Bildebene mit einer Subpixel-Präzision extrahieren, sind die Koordinaten der Merkmalspunkte keine ganze Zahl. In einigen Fällen sollte die X-Koordinate/Y-Koordinate des Merkmalspunkts auf eine ganze Zahl normiert werden. Dieser Prozess wird in diesem Artikel als Normalisierung von Merkmalspunkten in x-Richtung/y-Richtung bezeichnet.

Definieren Sie Punkt I (x, y) als den extrahierten Merkmalspunkt der Linienstruktur. Punkt A (xA, yA) ist der Punkt, der I auf der linken Seite am nächsten liegt, während Punkt B (xB, yB) der Punkt ist, der I auf der linken Seite am nächsten liegt Rechts. Wenn wir Punkt I in x-Richtung normalisiert haben, können wir die Koordinaten erhalten als

Wenn wir Punkt I in y-Richtung normalisiert haben, können wir außerdem die Koordinaten erhalten als

Wenn genügend Merkmalspunkte in unterschiedlichen Abständen erhalten werden, kann die Beziehung zwischen Merkmalspunkt und Entfernung ermittelt werden. Sobald genügend Abtastpunkte erhalten wurden, können wir die Beziehung anhand mehrerer Algorithmen ermitteln, z. B. des Kurvenanpassungsalgorithmus, des Back-Propagation (BP)-Algorithmus für neuronale Netze usw.

Adaptiver Kurvenanpassungsalgorithmus

In diesem Abschnitt verwenden wir eine lineare Funktion und eine Funktion zweiter Ordnung, um die Beziehung anzunähern. Das Verfahren ist wie folgt detailliert:

Schritt. 1. Definieren Sie eine lineare Funktion als

und eine Funktion zweiter Ordnung als

Schritt. 2. Normalisierte Feature-Punkte und ausgewählte Feature-Punkte mit derselben X-Koordinate/Y-Koordinate wie der X-Wert. Der entsprechende Abstand wird als y-Wert gewählt.

Schritt. 3. Verwenden der Methode der kleinsten Quadrate20 zur Berechnung der Koeffizienten a und b in Gl. (9). Wenn der Wert der Zielfunktion ε (Gl. 11) kleiner als ein Schwellenwert (z. B. 1e−4) ist, werden Koeffizienten gespeichert und die lineare Funktion wird als Funktion zum Ausdruck der Beziehung ausgewählt. Andernfalls fahren Sie mit Schritt 4 fort.

In Gl. (11), f(x) ist definiert als Gl. (9) xi ist die normalisierte x-Koordinate/y-Koordinate, während yi der entsprechende reale Abstand ist.

Schritt. 4. Verwendung der Methode der kleinsten Quadrate zur Berechnung der Koeffizienten a, b und c in Gl. (10). Wenn der Wert der Zielfunktion κ (Gl. 12) kleiner als ε ist, wird die Funktion zweiter Ordnung als Funktion zum Ausdruck der Beziehung ausgewählt.

In Gl. (12), g(x) ist definiert als Gl. (10), xi und yi sind genauso definiert wie in Gl. (11).

BP-Algorithmus für neuronale Netze21

In diesem Abschnitt wird ein neuronales BP-Netzwerk mit drei Schichten ausgewählt, um die Beziehung zwischen Merkmalspunkt und Entfernung zu erhalten.

Schritt. 1. Normalisierte Feature-Punkte und ausgewählte Feature-Punkte mit derselben X-Koordinate/Y-Koordinate wie der X-Wert. Der entsprechende Abstand wird als y-Wert gewählt.

Schritt. 2. Initialisieren Sie das neuronale BP-Netzwerk. Wählen Sie Verbindungsgewichte und Schwellenwerte zufällig aus.

Schritt. 3. Berechnen Sie gemäß dem entsprechenden Algorithmus für Eingabe und Ausgabe die Ausgabewerte der verborgenen Schicht und der Ausgabeschicht neu. Aktualisieren Sie dann die zugehörigen Gewichte und Schwellenwerte.

Schritt. 4. Wiederholen Sie den Vorgang, bis der Fehler unter dem Schwellenwert liegt. Dann können wir die Beziehung zwischen Merkmalspunkt und Entfernung ermitteln.

Bei der herkömmlichen Kalibrierungsmethode sollte der Ausdruck der Laserebene unter CCS erhalten werden. Wenn diese aufgenommenen Bilder jedoch nicht scharf genug sind, sind die Kalibrierungsergebnisse mit größeren Fehlern behaftet. In diesem Abschnitt wird eine neue Kalibrierung vorgeschlagen, einschließlich der Ermittlung der Beziehung zwischen Bildpunkt und horizontalem Abstand sowie der Beziehung zwischen Bildpunkt und senkrechtem Abstand. Diese Kalibrierungsmethode eignet sich sowohl für LSLVS in traditioneller Struktur als auch in Scheimpflug-Bedingungen.

Schritt. 1. Wählen Sie eine geeignete lineare Übersetzungsstufe aus. Bekanntermaßen ist die Positionsgenauigkeit eines linearen Translationstisches hoch genug, um einen beliebigen Laserscanner zu kalibrieren. In diesem Fall können wir entsprechend den Genauigkeitsanforderungen unseres LSLVS einen geeigneten Lineartisch auswählen.

Schritt. 2. Bearbeiten Sie eine Planplatte mit der richtigen Präzision. Da die Platte kein Muster oder 3D-Merkmal aufweist, ist der Produktionsprozess nicht schwierig.

Schritt. 3. Ein LSLVS in traditioneller Struktur umfasst eine Kamera mit normalem Objektiv und einen Laserprojektor. Der Sensor ist an einem starren Balken befestigt. In diesem Fall ist die Beziehung zwischen Kamera und Laserprojektor unveränderlich.

Schritt. 1. Befestigen Sie unser LSLVS auf der Bühne. In diesem Fall kann sich das LSLVS entlang der Bewegungsrichtung des linearen Translationstisches auf und ab bewegen. Der Übersetzungswert ist der gleiche wie bei der Stufe, was leicht zu erhalten ist.

Schritt. 2. Platzieren Sie die Oberflächenplatte so unter dem Laserprojektor, dass sie den Messbereich abdeckt, und befestigen Sie sie. In diesem Fall kann das Bild des Laserstreifens auf der Platte von der Kamera erfasst werden.

Schritt. 3. Steuern Sie den linearen Translationstisch, der sich innerhalb des Längsmessbereichs mit einem festen Schritt bewegt, der normalerweise der Messauflösung entspricht. Nehmen Sie für jede Position ein Bild des Lichtstreifens auf.

Schritt. 4. Extrahieren Sie die Mittelpunkte der Lichtstreifen in jedem Bild. In diesem Artikel ist die Extraktionsmethode der Steger-Extraktionsalgorithmus19 mit einer Genauigkeit von Subpixeln.

Schritt. 5. Normalisierte Bildmerkmalspunkte. Ermitteln Sie dann die Funktion zwischen der Koordinate der Mittelpunkte und dem senkrechten Abstand in jeder Position gemäß der entsprechenden Methode.

Schritt. 1. Befestigen Sie unser LSLVS auf der Bühne. In diesem Fall kann sich das LSLVS entlang der Bewegungsrichtung des linearen Translationstisches auf und ab bewegen.

Schritt. 2. Legen Sie ein planares Ziel mit Schachbrettmuster auf die Richtplatte.

Schritt. 3. Steuern Sie den linearen Translationstisch, der sich innerhalb des Längsmessbereichs mit einem festen Schritt bewegt. Nehmen Sie dann für jede Position ein Bild des Lichtstreifens (mit dem planaren Ziel) auf.

Schritt. 4. Extrahieren Sie die Mittelpunkte der Lichtstreifen in jedem Bild. In diesem Artikel ist die Extraktionsmethode der Steger-Extraktionsalgorithmus19 mit einer Genauigkeit von Subpixeln.

Schritt. 5. Normalisierte Bildmerkmalspunkte gemäß dem in Teil B von Abschnitt III erwähnten Normalisierungsalgorithmus. Ermitteln Sie dann die Funktion zwischen der Koordinate der Mittelpunkte und dem horizontalen Abstand an jeder Position gemäß der entsprechenden Methode.

Der Aufbau unserer Experimentierapparatur ist in Abb. 4 dargestellt. Der Einfachheit halber haben wir in unserer Arbeit ein LSLVS mit traditioneller Struktur gebaut, das eine Kamera mit normalem Objektiv und einen Laserprojektor umfasst (Beachten Sie, dass dies auch bei einem LSLVS im Scheimpflug-Zustand möglich ist). genutzt werden). Der Sensor ist an einem starren Balken befestigt. In diesem Fall ist die Beziehung zwischen Kamera und Laserprojektor unveränderlich. Anschließend wird der Balken auf einem linearen Translationstisch befestigt. Die Komponenten werden wie folgt detailliert beschrieben.

Aufbau unserer Experimentierapparatur.

Die in unserem LSLVS verwendete Kamera ist DaHeng MER-1070-10GM-P mit einer Auflösung von 3840 × 2748 Pixeln, während der Laserprojektor eine Wellenlänge von 405 nm hat. In der Praxis wird die Auflösung in x-Richtung auf 3300 Pixel reduziert, um sicherzustellen, dass ein ganzer Lichtstreifen erfasst wird. Die Basislinie zwischen Kamera und Laserprojektor beträgt ca. 500 mm. Da die Brennweite unseres Objektivs 6 mm beträgt, beträgt der Messbereich etwa 1100 mm, während der nächste senkrechte Abstand vom starren Strahl zur Referenzebene etwa 800 mm beträgt.

Der zur Kalibrierung des LSLVS verwendete Tisch ist PST150 X-S42 mit einem Hub von 150 mm. Die Auflösung des Tisches beträgt 2,5 us, während die Neupositionierungsgenauigkeit 4 us beträgt. Die Positionsgenauigkeit des linearen Translationstisches ist entsprechend den Messanforderungen des LSLVS hoch genug. Da der Messbereich 1100 mm beträgt, haben wir die angestrebte Präzision auf 0,1 mm, also 0,09‰ relativ zum Messbereich, gewählt, was besser ist als bei den meisten vorhandenen Sensoren unter Scheimpflug-Bedingungen.

Die Genauigkeit der Ebenheit beträgt 0,05 mm und die Länge beträgt 1200 mm. Da die Platte kein Muster oder 3D-Merkmal aufweist, ist eine präzise Bearbeitung einfach durchzuführen. Beim Kalibrierungsprozess projiziert das LSLVS einen Laserstreifen auf die Oberflächenplatte und die Kamera erfasst Bilder des Laserstreifens.

Das planare Ziel, das zum Ermitteln von Merkmalspunkten auf einem Lichtstreifen verwendet wird, weist ein Schachbrettmuster auf (wie in Abb. 5 dargestellt). Die Bearbeitungsgenauigkeit des planaren Targets beträgt 5 μm. Die Seitenlänge jedes Schachbretts beträgt 25 mm. Die Oberfläche des planaren Targets wird diffus reflektiert. In diesem Fall können Merkmalspunkte auf der Lichtebene leicht ermittelt werden.

Die ebene Zielscheibe mit Schachbrettmuster.

Mit Hilfe des oben erwähnten planaren Ziels wird die im System verwendete Kamera mit der Kalibrierungsmethode von Zhang17 kalibriert. Bei dieser Methode befindet sich das Ziel zufällig im Sichtfeld der Kamera. In diesem Fall können Bilder des Ziels von der Kamera scharf erfasst werden. Wenn sich das Ziel an mehr als drei verschiedenen Positionen mit unterschiedlichen Posen befindet, kann die Kamera erfolgreich kalibriert werden. In unserer Arbeit werden 16 Bilder aufgenommen, um die Kalibrierungsaufgabe abzuschließen, und ein Teil der Bilder ist in Abb. 6 dargestellt.

Teil der Zielbilder, die zur Kalibrierung der Kamera verwendet werden.

Die erhaltenen intrinsischen Parameter sind in Tabelle 1 aufgeführt.

In Tabelle 1 sind \(f_{x}\) und \(f_{y}\) Skalierungsfaktoren in x- und y-Koordinaten und \((u_{0} ,v_{0} )\). der Hauptpunkt der Bildebene. kc1 und kc2 sind Verzerrungsfaktoren des Bildes.

Bei der Kalibrierung für unser LSLVS beträgt der feste Schritt des linearen Translationstisches 0,1 mm, während der Längsmessbereich 100 mm beträgt. In diesem Fall sollten wir 1001 Bilder aufnehmen, um die Beziehung zwischen Merkmalspunkten und senkrechtem Abstand zu erhalten. Anschließend wird das planare Ziel auf der Oberflächenebene positioniert, um die Beziehung zwischen Merkmalspunkten und horizontalem Abstand zu ermitteln. Für jedes Bild wird der Lichtstreifen mit der Steger-Methode19 extrahiert und anschließend werden die Merkmalspunkte mit der in Abschnitt II genannten Methode normalisiert.

Da die Auflösung des Bildes in x-Richtung 3300 beträgt, sollten wir 3300 Funktionen erhalten, um die Beziehung für jedes Pixel im gesamten Messbereich auszudrücken. Der Zusammenhang zwischen Abstand und Koordinate des Laserstreifens ist in Abb. 7a dargestellt. Wie in Abb. 7a dargestellt, stellt jede Spalte eine Abstandsvariation mit derselben x-Koordinate der Merkmalspunkte dar. Mit anderen Worten: Jede Spalte gibt die Funktion des Abstands mit der Y-Koordinate an. Ein Beispiel für die Beziehung zwischen der y-Koordinate und dem Abstand an einer Position des Laserstreifens ist in Abb. 7b dargestellt. Aus Abb. 7b kann die Beziehung durch zwei Algorithmen bestätigt werden, nämlich den adaptiven Kurvenanpassungsalgorithmus und den BP-Algorithmus für neuronale Netze. Im adaptiven Kurvenanpassungsalgorithmus wird jede Beziehung (wie in Abb. 7b dargestellt) durch eine lineare Funktion wie in Gl. angepasst. (9) oder eine Funktion zweiter Ordnung wie Gl. (10), während im BP-Algorithmus für neuronale Netzwerke die Beziehung zwischen Eingabe und Ausgabe durch ein trainiertes Netzwerkmodell ausgedrückt wird.

(a) Beziehung zwischen Abstand und Koordinate des Laserstreifens; (b) Beziehung zwischen dem Wert und dem Abstand an einer Position des Laserstreifens.

Für senkrechten Abstand

Um die Messgenauigkeit des LSLVS in senkrechter Richtung gemäß unserem vorgeschlagenen Ansatz zu bewerten, fertigen wir einen Stufenkeil mit einer Genauigkeit von 0,02 mm. Die Höhen dieser Stufenflächen betragen 10,0 mm, 19,0 mm, 27,9 mm bzw. 32,5 mm. Der Keil befindet sich auf einer Richtplatte. Diese Messergebnisse sind in Abb. 8 dargestellt. Aus diesen Messergebnissen können wir einen maximalen Fehler von 0,1 mm ermitteln. Da der feste Schritt des linearen Translationstischs, der zur Ermittlung der Beziehung verwendet wird, 0,1 mm beträgt, ist die Messgenauigkeit unseres Laserscanners ausreichend präzise.

Messergebnisse zur Beurteilung der Messgenauigkeit unseres LSLVS.

Für horizontalen Abstand

Zur Beurteilung der Messgenauigkeit des Laserscanners in horizontaler Richtung wird ein 1D-Target verwendet, das in Abb. 9 dargestellt ist. Der Abstand zwischen jeweils zwei benachbarten Merkmalspunkten ist genau bekannt (40 mm). Alle Messwerte werden mit ihrem entsprechenden wahren Wert verglichen. Da das Ziel beliebig in verschiedene Positionen bewegt werden kann, erhalten wir genügend Distanzen, um unser Messverfahren in horizontaler Richtung auszuwerten. Ein Teil unserer Bewertungsergebnisse ist in Tabelle 2 aufgeführt. In Tabelle 2 bezeichnet Dm1 das Messergebnis gemäß dem adaptiven Kurvenanpassungsalgorithmus, während Dm2 das Messergebnis gemäß dem BP-Algorithmus für neuronale Netze bezeichnet. Dementsprechend ist Fehler1 der absolute Fehler von Dm1 und Fehler2 der absolute Fehler von Dm2. Wie in Tabelle 2 aufgeführt, beträgt der quadratische Mittelfehler (RMS-Fehler) der Messergebnisse gemäß unserer vorgeschlagenen Methode 0,065 mm (gemäß dem adaptiven Kurvenanpassungsalgorithmus) und 0,052 mm (gemäß dem BP-Algorithmus für neuronale Netze).

1D-Ziel zur Bewertung unserer Messmethode in horizontaler Richtung.

Zum Vergleich kalibrieren wir das LSLVS mit der Kalibrierungsmethode von Wei9,10. Der Ausdruck unter CCS der Lichtebene ist

Wir messen das in Abb. 8 dargestellte 1D-Ziel gemäß der traditionellen Methode (\(D_{trad}\)) und unserer vorgeschlagenen Methode (Dm1 und Dm2). Die Messergebnisse sind in Tabelle 3 aufgeführt.

Wie in Tabelle 3 aufgeführt, beträgt der RMS-Fehler der Messergebnisse nach der herkömmlichen Methode 0,184 mm, was einer Reduzierung um mindestens 64,67 % entspricht.

In diesem Artikel schlagen wir eine präzise Messmethode für einen Lichtsichtsensor mit Linienstruktur vor, einschließlich der entsprechenden Kalibrierungsmethode. Das entsprechende Verfahren wird in diesem Dokument detailliert beschrieben. Im Vergleich zu einer herkömmlichen Messmethode ist keine Verzerrungskompensation erforderlich und die Messgenauigkeit wird verbessert. Darüber hinaus haben wir gezeigt, dass der Fehler unserer derzeitigen Messmethode in einem großen Messbereich (ca. 1100 mm) 0,1 mm beträgt, also 0,09‰ relativ zum Messbereich. Echte Experimente zeigen, dass der mittlere quadratische Fehler der Messergebnisse gemäß unserer vorgeschlagenen Methode im Vergleich zur herkömmlichen Methode um 64,67 % reduziert wird. Darüber hinaus kann unsere vorgeschlagene Methode auch für den Lichtsichtsensor mit Linienstruktur unter Scheimpflug-Bedingungen verwendet werden.

Alle während dieser Studie generierten oder analysierten Daten sind in diesem veröffentlichten Artikel enthalten.

Sun, J., Zhang, J., Liu, Z. & Zhang, GJ Ein Vision-Messmodell eines Laser-Verschiebungssensors und seine Kalibrierungsmethode. Opt. Laser-Ing. 51, 1344–1352 (2013).

Artikel Google Scholar

Shao, MW & Hu, MJ Parallele, funktionsbasierte Kalibrierungsmethode für einen trinokularen Vision-Sensor. Opt. Express 28(14), 20573–20586 (2020).

Artikel ADS PubMed Google Scholar

Heikkila, J. Geometrische Kamerakalibrierung mithilfe kreisförmiger Kontrollpunkte. IEEE Trans. Muster Anal. Mach. Intell 22(10), 1066–1073 (2000).

Artikel Google Scholar

Xiao, H. & Luo, M. Kalibrierung eines visuellen 3D-Sensors mit Linienstrukturlicht durch Fluchtpunktmethode. Opt.-Elektron. Ing. 23(3), 53–58 (1996).

Google Scholar

Yang, P. & Lin, Wu. Eine schnelle Kalibrierungsmethode für Laserlicht-Vision-Sensoren. Laser J. 27(4), 35–36 (2006).

CAS Google Scholar

Duan, F., Liu, F. & Ye, S. Eine neue genaue Methode zur Kalibrierung von Linienlichtsensoren. Kinn. J. Sci. Instrument. 21(1), 108–110 (2000).

Google Scholar

Zou, D., Forschung zur 3D-Vision-Inspektion und ihrer Anwendung in ADC-Stationen. [Ph.D. Dissertation], Tianjin-Universität (1992).

Zhang, S. & Huang, PS Neuartige Methode zur Kalibrierung von Strukturlichtsystemen. Opt. Ing. 45, 8. https://doi.org/10.1117/1.2336196 (2006).

Artikel CAS Google Scholar

Wei, Z. & Zhang, G. Kalibrierungsansatz für einen Streifen-Vision-Sensor mit strukturiertem Licht basierend auf der Invarianz des doppelten Kreuzverhältnisses. Opt. Ing. 42(10), 2959–2966 (2003).

Artikel ADS Google Scholar

Zhou, F. & Zhang, G. Vollständige Kalibrierung eines strukturierten Lichtstreifen-Vision-Sensors durch ein planares Ziel unbekannter Ausrichtung. Bild Vis. Berechnen. 23(1), 59–67 (2005).

Artikel MathSciNet Google Scholar

Liu, Z., Zhang, G. & Wei, Z. Eine genaue Kalibrierungsmethode für Lichtsichtsensoren mit Linienstruktur. Acta Opt. Sünde. 29(11), 3124–3128 (2009).

Artikel Google Scholar

Wei, ZZ, Shao, MW, Zhang, GJ & Wang, YL Parallelbasierte Kalibrierungsmethode für linienstrukturierte Lichtbildsensoren. Opt. Ing. 53(3), 033101 (2014).

Artikel ADS Google Scholar

Wei, Z., Cao, L. & Zhang, G. Eine neuartige zielbasierte 1D-Kalibrierungsmethode mit unbekannter Ausrichtung für Streifenlicht-Sichtsensoren. Opt. Lasertechnologie 42, 570–574 (2010).

Artikel ADS CAS Google Scholar

Scheimpflug, T., Verbesserte Methode und Vorrichtung zur systematischen Veränderung oder Verzerrung von ebenen Bildern und Bildern mittels Linsen und Spiegeln für Fotografie und andere Zwecke. Großbritannien-Patent1196 (12. Mai 1904)

Shao, MW Kalibrierungsmethoden für eine Kamera mit geneigtem Objektiv und einen dreidimensionalen Laserscanner im Scheimpflug-Zustand. J. Opt. Soc. Bin. A. Opt. Bild. Wissenschaft. Vis. 37(7), 1076–1082 (2020).

Artikel ADS PubMed Google Scholar

Shao, MW, Wang, P. & Wang, JH Verbesserte Sensoren basierend auf Scheimpflug-Bedingungen und multifokalen Einschränkungen. IEEE-ZUGRIFF https://doi.org/10.1109/ACCESS.2020.3020731 (2020).

Artikel Google Scholar

Zhang, Z. Eine flexible neue Technik zur Kamerakalibrierung. IEEE Trans. Muster Anal. Mach. Intel. 22(11), 1330–1334 (2000).

Artikel Google Scholar

Shao, M., Wei, Z., Hu, M., Eine flexible Methode zur Kalibrierung externer Parameter zweier Kameras mit nicht überlappendem Sichtfeld. In Seventh International Symposium on Precision Mechanical Measurements, ID:99032C (2016).

Steger, C. Unvoreingenommene Extraktion von Linien mit parabolischen und Gaußschen Profilen. Berechnen. Vis. Bildverstand. 117, 97–112 (2013).

Artikel Google Scholar

Zhang, L. et al. Eine adaptive gleitende Methode der kleinsten Quadrate zur Kurvenanpassung. Messung 49, 107–112 (2014).

Artikel Google Scholar

Yip, HJ, Ji, GR, Liu, JH, Jia, L., Optimale Struktur und Parameter des neuronalen BP-Netzwerks für Kurvenanpassungsprobleme. Das 6. EMIM, Bd. 40, S. 1647–1652 (2016).

Referenzen herunterladen

Diese Forschung wurde von der Natural Science Foundation der Provinz Shandong (ZR2022ME182), China, finanziert.

School of Science, Technische Universität Qingdao, Qingdao, 266520, China

Wei-wei Sheng

Sie können diesen Autor auch in PubMed Google Scholar suchen

WS verfasste den Haupttext des Manuskripts, bereitete Abbildungen vor und überprüfte das Manuskript.

Korrespondenz mit Wei-wei Sheng.

Der Autor gibt keine Interessenkonflikte an.

Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht durch gesetzliche Vorschriften zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Sheng, Ww. Präzise Messung für Linienstruktur-Lichtbildsensoren mit großer Reichweite. Sci Rep 13, 7234 (2023). https://doi.org/10.1038/s41598-023-34428-w

Zitat herunterladen

Eingegangen: 07. Oktober 2022

Angenommen: 29. April 2023

Veröffentlicht: 04. Mai 2023

DOI: https://doi.org/10.1038/s41598-023-34428-w

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein gemeinsam nutzbarer Link verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.