TIS-Industriekameras helfen Studierendenteam auf dem Weg zur Ziellinie

tc_published_on_date_by_author {"date":"7. Februar 2022","author":"TIS Marketing"}

Inspiriert von der Formula Student (FSAE) wurde NTHU (National Tsing Hua University) Racing im Jahr 2015 gegründet und hat sich seither in Kategorien wie Bestes Elektrofahrzeug, Bestes elektronisches Systemdesign und Effizienz im Wettbewerb platziert. Autonome Fahrzeuge (AVs) sind zunehmend in den Mittelpunkt des Forschungsinteresses gerückt, was die Studierenden dazu veranlasste, eine neue Herausforderung anzunehmen - die Entwicklung eines autonomen Rennwagens. The Imaging Source stellte USB 3.0 Industriekameras zur Verfügung, um dem Team zu helfen, die Ziellinie zu erreichen.

Positionsbestimmung und Kartierung

Um Hardware- und Software-Designs zu testen, begannen die Studierenden mit einem verkleinerten Konzeptfahrzeug (Abb. 1, unten). Der Software-Ansatz des Teams sollte Daten von verschiedenen Sensortypen wie Beschleunigungssensoren, Time-of-Flight (ToF)- und Vision-Sensoren verwenden. Dieser Prozess der Sensorfusion liefert die beste Mischung von Daten für eine robuste Erfassung und Navigation. Bildsensoren sind seit langem fester Bestandteil autonomer Fahrzeuge, um Objekte in der Umgebung wie Schilder und Fahrbahnmarkierungen zu visualisieren. Visuelle Daten können aber auch zur Lösung einer weiteren grundlegenden Herausforderung verwendet werden, vor der jedes autonome Fahrzeug steht: der Bestimmung seiner eigenen Position im 3D-Raum.

Abb. 1, Konzeptbeweis: Das NTHU-Studierendenteam testete Kameraeinstellungen an einer verkleinerten Version des Fahrzeugs (Konzeptzeichnung, oben links; Testfahrzeug mit Doppelkamerasystem, unten rechts).

Das Team integrierte ein Ein-Kamera-System mit der USB 3.0 DFK 33UX273 Industriekamera von The Imaging Source. Die Eingaben der Kamera wurden für Umgebungsinformationen (z. B. gelbe und blaue Pylonen - Abb. 2, unten) analysiert, aber auch für die visuelle Verfolgung von Bild zu Bild verwendet. Die sequenziellen Kamerabilder wurden verwendet, um die Positionsveränderung der Kamera (und damit des Fahrzeugs) in Echtzeit zu schätzen, was als monokulare visuelle Odometrie (VO) bezeichnet wird. Mithilfe der Algorithmen Extended Kalman Filter (EKF) und FastSLAM-1.0 wurden die zugrunde liegende Struktur und Geometrie der Umgebung gemessen. Diese Merkmale wurden dann in einer visuellen Karte zusammengefasst, um die Position des Fahrzeugs mit hoher Präzision zu bestimmen (Simultaneous Localization and Mapping - SLAM).

Abb. 2, Computer-Vision-Algorithmen nutzen visuelle Daten nicht nur zur Erkennung von Objekten und Anomalien in der Umgebung, sondern auch zur gleichzeitigen Lokalisierung und Kartierung (SLAM).

Zwei Augen sehen mehr als eins

Während der Tests stellte das Team fest, dass das Sichtfeld (FoV) einer einzelnen Kamera zu eng war (Abb. 3a, unten) und dazu führte, dass das System einige Pylonen übersah. Auf ("der" erased) Grundlage der Erfahrungen anderer Rennteams beschlossen die Studierenden, das System durch eine zweite Kamera zu ergänzen, um das Sichtfeld zu vergrößern und alle Hindernisse in der Umgebung zu erfassen (Abb. 3b). Die USB 3.0-Kamera ließ sich schnell und effizient an den Computer anschließen und übertrug die Bildinformationen von der Kamera in Echtzeit an die Datenbank.

Abb. 3a, Das System mit nur einer Kamera erfasste die meisten Eckpylonen, aber es blieben einige tote Winkel.

Abb. 3b, Das System wurde um eine zweite Kamera erweitert, die das Sichtfeld so weit vergrößerte, dass alle Pylone erfasst werden konnten.