Technische Universität Berlin

Roboter mit Sinn für Orientierung

Vorbild ist das menschliche Sehsystem

Einige Roboter sehen dem Menschen mittlerweile zum Verwechseln ähnlich. Teilweise haben sie einen Kopf, zwei Augen, Mund und Nase, jedoch stehen sie in ihren Fähigkeiten dem Menschen noch in vielem nach. Insbesondere in der Wahrnehmung und der eigenständigen Navigation stoßen Roboter noch sehr häufig an ihre Grenzen. Die wesentlichen zu lösenden Fragen für den Roboter sind dabei: Wo bin ich? Und: Was ist um mich herum? „Gerade wenn man an den Einsatz von Robotern unter schwierigen Bedingungen, in der Montage oder auch in sicherheitsrelevanten Umgebungen, denkt, brauchen sie ein tiefes Verständnis für ihre Umgebung“, so Prof. Dr.-Ing. Guillermo Gallego, Professor für Robotic Interactive Perception an der TU Berlin und Principal Investigator in dem Exzellenzcluster Science of Intelligence (SCIoI).

Dieses klassische Problem der Robotik nennt sich auch „Simultaneous Localization and Mapping“ (Simultane Lokalisierung und Kartierung – SLAM) und beschreibt die Schwierigkeit, dass ein mobiles autonomes System sowohl eine detailierte dreidimensionale Umgebungskarte, als auch den exakten eigenen Standort benötigt, häufig ohne Vorwissen.

Bisher werden für die Gewinnung dieser essenziellen Informationen meist herkömmliche Kameras verwendet. Guillermo Gallego hat gemeinsam mit Kolleg*innen der Universität Hongkong ein System entwickelt, dass die Grenzen herkömmlicher Kameras überwinden und damit selbstständigen Robotern ganz neue Einsatzfelder eröffnen könnte. Ziel von ESVO (Event-based Stereo Visual Odometry) ist es, dass der Roboter, ausgerüstet mit zwei speziellen Kameras, eine Karte seiner Umgebung erstellt und sich – auch in der Bewegung – in Bezug zu dieser Karte lokalisiert.

Wo bin ich? Blitzschnell wird eine Umgebungskarte erstellt

„Wir nutzen dafür ganz spezielle, biologisch inspirierte Kameras, sogenannte neuromorphe Kameras“, so Guillermo Gallego. Deren Sensoren sind dem menschlichen Sehsystem nachempfunden, das insbesondere für schnelle Bewegungserkennung zuständig ist. Sie nehmen ihre Umgebung nicht als herkömmliche Bilder auf, sondern arbeiten mit Pixeln, von denen jedes einzelne enorm schnell und unabhängig von anderen Pixeln auf jede Veränderung der Lichtintensität reagiert und diese Information in Form von Aktionspotenzialen, auch Spikes genannt, sendet. „Konventionelle Kameras nehmen circa 100 Bilder pro Sekunde auf. Bei Event-Kameras reagiert jedes einzelne Pixel innerhalb einer Mikrosekunde auf eine Änderung der Intensität und sendet ansonsten kein Signal“, erläutert der Mathematiker.

Räumliche Orientierung auch in schwierigen Lichtverhältnissen

Mit ESVO haben die Wissenschaftler*innen erstmals einen Algorithmus entwickelt, der diese Spikes von zwei Kameras erfasst, mit einer zeitlichen Information koppelt, sowie parallel dazu eine Umgebungskarte erstellt und die Position der Roboteraugen in dieser Karte errechnet. „Der entscheidende Vorteil von ESVO: Der Algorithmus ist in der Lage, die niedrige Latenzzeit, die hohe zeitliche Auflösung und die Dynamik dieser speziellen Kameras zu nutzen und sie zur Lösung des Problems von Stereo-SLAM einzusetzen. So können wir erstmalig auch eine räumliche Orientierung in schwierigen Lichtverhältnissen ermöglichen“, so der Wissenschaftler.

ESVO könnte in selbstfahrenden Autos eingesetzt werden

Die Forschung von Guillermo Gallego passt damit ideal in das Konzept von SCIoI, das darauf beruht, die synthetische und analytische Intelligenzforschung zu kombinieren. „ESVO könnte beispielsweise in selbstfahrenden Autos eingesetzt werden, die sich schnell in dynamischen Lichtverhältnissen oder auch sehr diffusem Licht bewegen müssen“, so Guillermo Gallego.

Originalpublikation

Der Text ist am 29. November 2020 in der Sonderbeilage der TU Berlin im Der Tagesspiegel erschienen.

Autorin: Katharina Jung