Foto: Universität Zürich

Rettungsdrohne

Wie autonome Drohnen lernen, auf engstem Raum unfallfrei zu navigieren

in die Zwischenablage kopiert

Zuletzt bearbeitet am

Martin Lewicki

Wie autonome Drohnen lernen, auf engstem Raum unfallfrei zu navigieren

Pakete transportieren, Räume vermessen, Rettungsflüge: Die Einsatzmöglichkeiten von autonomen Drohnen sind mannigfaltig, die technischen Herausforderungen allerdings genauso. In zwei Forschungsprojekten ist es gelungen, Drohnen für ihre komplexen Aufgaben erfolgreich zu trainieren.

Man sieht den Wald vor lauter Bäumen nicht, doch die kleine Flugdrohne jagt mit bis zu 40 Stundenkilometern über das Gelände. Sie fliegt an eng stehenden Bäumen vorbei, bremst abrupt, um einen Ast zu umkurven und im nächsten Augenblick einem massiven Gehölz auszuweichen. Der Quadrokopter navigiert, wie in einem Youtube-Video zu sehen ist, autonom durch den Wald – ohne menschliche Steuerung und ohne zu zerschellen. Der Flug dient allerdings nur Demonstrationszwecken. Der Flugakrobat muss die extrem agile Navigation beherrschen, um seine eigentliche Aufgabe ausführen zu können: Rettungseinsätze.

Entwickelt wurde die Rettungsdrohne von einem Team um Davide Scaramuzza, Professor für Robotik und Wahrnehmung an der Universität Zürich. „Ich komme aus dem Herzen Italiens, wo es immer wieder Erdbeben gibt. Drohnen können in beschädigten oder eingestürzten Gebäuden schnell und sicher nach Menschen suchen, bevor Rettungsteams zum Einsatz kommen“, erklärt er die Motivation für die Entwicklung der Drohne. Im Ernstfall erstellt sie während des Flugs selbstständig eine 3-D-Karte der Umgebung, in der sie auch die Position möglicher Opfer markiert. Nach der Rückkehr zur Basisstation können die Rettungskräfte auf der Karte den exakten Ort der Verunglückten sehen und ein Bergungsteam losschicken.

Video: UZH Robotics and Perception Group

Für ihn sei klar gewesen, dass die Drohne autonom fliegen können muss, da diese Einsätze in schlecht erreichbaren Gebieten außerhalb der Reichweite von ferngesteuerten Drohnen stattfinden. Dies bedeutet jedoch, dass die Drohne ohne ausgeklügelte Sensoren wie LiDAR-Laserscanner und viel Rechenleistung auskommen muss. Beides würde Gewicht, Größe und Stromverbrauch in die Höhe treiben. Zudem muss das Fluggerät so klein und effizient wie möglich sein, um vielseitig und wendig manövrieren zu können, aber auch um die Flugzeit zu maximieren. „Eine kleine Drohne kommt durch enge Lücken und Passagen, sie kann schneller fliegen und längere Strecken zurücklegen“, sagt Scaramuzza.

Autonome Drohnen, die so gut wie von Menschen gesteuert fliegen

Seiner Meinung zufolge müssen die Drohnen daher lediglich mit Kameras und Smartphone-Grafikprozessoren auskommen. „Menschen sind in der Lage, über das Sehen ein Auto zu fahren oder eine ferngesteuerte Drohne zu fliegen“, konstatiert Davide Scaramuzza. Für Drohnen ist dies noch eine Herausforderung. Um dies zu ändern, startete der Wissenschaftler das von der EU geförderte Forschungsprojekt „AgileFlight“. Das Ziel: Drohnen, ausgerüstet nur mit Kamera und Prozessor, sollen selbstständig genauso gut fliegen können wie von Menschenhand gesteuert. In Rahmen des Projekts entstand an der Universität Zürich die Rettungsdrohne.

Für Scaramuzza sind neuartige Sensoren und bessere Algorithmen der Schlüssel zum Erfolg. Bei einem Algorithmus handelt es sich um programmierte Handlungsanweisungen, die schrittweise ausgeführt eine Aufgabe oder ein Problem lösen. In dem Projekt habe sich schnell gezeigt, dass die Algorithmen, die in selbstfahrenden Autos zum Einsatz kommen, für Drohnen ungeeignet sind. Sie seien für die agilen und schnellen Flugkörper zu langsam. Wenn Drohnen fix navigieren sollen, müssen sie schneller wahrnehmen und schneller Entscheidungen treffen als bei langsamen Geschwindigkeiten. „Jeder Sekundenbruchteil, der verschwendet wird, kann zu einem Absturz führen“, so Scaramuzza. Außerdem erfährt die Drohnenkamera bei schnellem Fliegen eine sogenannte „Bewegungsunschärfe“, die dazu führen kann, dass die Drohne Hindernisse übersieht und somit möglicherweise kollidiert.

Professor Davide Scaramuzza forscht zu autonomen Drohnen.

Foto: Leonard Bauersfeld

Professor Davide Scaramuzza forscht zu autonomen Drohnen.
Extreme Reaktionsschnelligkeit

Mit einem konventionellen Algorithmus erreichte die Rettungsdrohne lediglich eine Geschwindigkeit von zehn Kilometern pro Stunde. Nicht genug, wenn jede Sekunde zählt und große Distanzen zurückgelegt werden müssen. Daher entwickelten Scaramuzza und sein Team ein künstliches neuronales Netz. Gemeint ist damit ein Algorithmus, der der Funktionsweise des menschlichen Gehirns nachempfunden ist.

Es zeigte sich, dass dieses neuronale Netz wie erhofft effizienter und schneller arbeitet. Allein anhand der Kamerabilder der Drohne kann es einen kollisionsfreien Pfad berechnen, ohne wie der herkömmliche Algorithmus zuvor eine Umgebungskarte zu entwerfen und komplexe Kollisionsberechnungen durchzuführen. Das spart Zeit. Dank des neuronalen Netzwerks kann die Drohne selbstständig mit bis zu 40 Stundenkilometern kollisionsfrei navigieren.

Was ist ein künstliches neuronales Netz?

Ein künstliches neuronales Netz (KNN) orientiert im Aufbau am menschlichen Gehirn. Es besteht aus zahlreichen Knoten, auch künstliche Neuronen genannt. Diese sind miteinander verbunden und können interagieren. Das heißt: Sie nehmen Informationen von außen oder von anderen Knoten auf, verarbeiten sie und geben das Resultat an andere Knoten weiter. Stärke und Relevanz der Verbindungen zwischen den einzelnen Knoten hängen von der Gewichtung ab. Diese Gewichtungen müssen einem KNN zunächst beigebracht werden. Sprich: KNN können nur funktionieren, wenn sie zuvor in einer Aufgabenstellung trainiert worden sind. Aufgrund der speziellen Anordnung und der Verknüpfung der Knoten sollen KNN Anwendungsprobleme schneller lösen können.

Quelle: BigData-Insider

Training im virtuellen Flugsimulator

Für noch höhere Geschwindigkeiten soll demnächst ein neuer Sensor, eine sogenannte „Ereigniskamera“, sorgen. Ein üblicher Videokamera-Sensor erkennt ein sich bewegendes Objekt erst dann, wenn alle Pixel analysiert wurden. Die Ereigniskamera hingegen nimmt bereits anhand eines einzelnen Pixels eine Veränderung wahr. Dadurch werden die Daten wesentlich schneller verarbeitet. Die Reaktionszeit der autonomen Drohne ist dann mit 3,5 Millisekunden so kurz, dass sie einem geworfenen Ball aus drei Metern Entfernung ausweichen kann. Dies soll ein Tempo von mehr als 40 Stundenkilometern ermöglichen.

Damit das neuronale Netzwerk überhaupt diese komplexen Drohnenflüge beherrschen kann, musste es zunächst geschult werden. Das Forschungsteam verzichtete auf Flugtests. „Wir haben das neuronale Netzwerk vollständig in einer Simulation trainiert“, erklärt der Professor. Dieses Vorgehen sei schnell, günstig und sicher. Ansonsten seien Hunderte von realen Probeflügen nötig, um den Algorithmus des neuronalen Netzwerks zu trainieren. Gleichzeitig könne man es sich aus Kostengründen nicht erlauben, Drohnen bei Abstürzen zu verlieren.

Stattdessen entwickelten die Forscher*innen einen Flugsimulator. Als Trainingsumgebung kam eine 3-D-Punktwolke zum Einsatz, die einen großen Wald mit Vektoren darstellt. Solche 3-D-Modelle, die beispielsweise für Videospiele entwickelt werden, lassen sich online erwerben. In diesem virtuellen Wald lernte der Algorithmus, sicher zu navigieren. Das Training im Simulator funktionierte über „imitiertes Lernen“, bei dem das neuronale Netzwerk einen herkömmlichen Navigationsalgorithmus, der als künstlicher Pilot fungierte, immer wieder nachahmte. Als das Training nach nur einem Tag abgeschlossen war, spielte das Projektteam das trainierte neuronale Netzwerk auf eine Drohne: „Sie konnte sofort erfolgreich mit den neuen Fähigkeiten fliegen, ohne Anpassung oder Feinabstimmung.“

Video: UZH Robotics and Perception Group

Schnelle Drohnen-Unterstützung bei der Raumplanung

An einem weiteren Anwendungsbeispiel für autonome Drohnen arbeitet das Institut für Integrierte Produktion Hannover (IPH). Der Forschungseinrichtung gelang es, von einer Flugdrohne die Raum- und Ausstattungsdaten von Fabrikhallen beziehungsweise Produktionsstätten erfassen zu lassen. Firmenbesitzer*innen benötigen diese dreidimensionalen Daten zu bestehenden Anlagen für ihre Planung. Mit ihnen ist es möglich, am Computer beispielsweise die optimale Erweiterung von Fabriken und die Optimierung der Produktionsprozesse durchzuspielen. Bislang vermessen Menschen vom Boden aus die Fabrikanlagen und erstellen dann ein 3-D-Abbild. Dies kann Tage bis Wochen dauern. Die Drohne benötigte für eine 800 Quadratmeter große Fabrikhalle nur 45 Minuten.

Gesteuert wurde sie allerdings von einem Menschen. Um den Personal- und Kostenaufwand weiter zu reduzieren, entwickeln die IPH-Forscher*innen im Projekt „Autodrohne in der Produktion“ eine autonome Flugfunktion, die bereits funktioniert. „Unsere langfristige Vision sieht so aus: Wir schicken eine Drohne zum Kunden, er drückt auf einen Knopf und die Drohne macht selbstständig einen Scan von seiner Produktionsstätte“, sagt Projektleiter Andreas Seel.

Kund*innen bekommen virtuellen Fabrikplan

Damit die Drohne ihre Aufgaben erfüllen kann, stattete das Projektteam sie mit einem LiDAR-Sensor aus. Dieser erzeugt mit seinen Laserstrahlen ein dreidimensionales Abbild der Umgebung. „Die Drohne fliegt in unterschiedlicher Höhe und erstellt anhand der Sensordaten eine Karte des Raums, in dem sie sich dann sicher bewegen kann. Sie erkundet die Umgebung so lange, bis sie alles gesehen und gleichzeitig abgescannt hat“, erklärt Seel. Das heißt: Die Drohne erstellt eine sogenannte „Belegtheitskarte“ ihrer Umgebung, während sie gleichzeitig ihre Position darin schätzt. Damit das Fluggerät dieses Verfahren unfallfrei beherrscht, wurde der Algorithmus zuvor in einem Flugsimulator trainiert.

Während eines realen Flugs speichert die Drohne die Rohdaten auf einer internen SD-Karte. „Bei dem Fabriklayout-Scan werden RGB-Bilddaten von der Umgebung erfasst, um daraus Punktwolken zu erzeugen, welche die Umgebung dreidimensional rekonstruieren“, erläutert der Projektleiter. Aus diesen Daten wird während des Flugs die virtuelle Fabrikumgebung für die Kund*innen erstellt. Mit den Punktwolken könne man geometrische Formen wie Hochregallager oder Anlagen virtuell nachbilden. Die Farbinformationen aus den Rohbildern verwendet man, um sie über diese Formen zu legen: „Wir bilden also zuerst die geometrische Form eines Hochregallagers ab und legen anschließend das Aussehen eines Hochregallagers über diese Form.“ Die Kund*innen erhalten auf diese Weise exakte Raum- und Ausstattungsdaten.

Belegtheitskarte

Abbildung: Integrierte Produktion Hannover

So sieht eine 3-D-Belegtheitskarte aus, die sich die Drohne selbst erstellt, um nicht mit Objekten zu kollidieren.
Mit einer virtuellen Simulationsumgebung wie dieser wird die automatisierte Drohne in Innenräumen trainiert.

Abbildung: Integrierte Produktion Hannover

Mit einer virtuellen Simulationsumgebung wie dieser wird die automatisierte Drohne in Innenräumen trainiert.
Weg zum kommerziellen Einsatz noch steinig

Allerdings gibt es derzeit noch Probleme, die einen kommerziellen Einsatz erschweren. Die autonome Scan-Drohne benötigt einen guten GPS-Empfang, um ihre Position zu bestimmen. Dieser ist jedoch in Innenräumen wie Fabrikhallen nicht immer gegeben. Zudem kann der zur Navigation verwendete Magnetometer-Sensor von elektromagnetischen Feldern gestört werden, was die Steuerung behindert. Dadurch steigt die Gefahr einer Kollision.

An dieser Stelle kommt laut Expert*innen das vielleicht größte Hindernis für autonome Drohnen ins Spiel: Wer haftet bei einem Unfall, die Drohnenhersteller*innen, die Algorithmus-Entwickler*innen, die Nutzer*innen? „Deutsche Sicherheitsrichtlinien liefern bislang kein geeignetes Werkzeug, um das zu bewerten. Es ist nicht klar, wen man im Falle eines Unfalls verantwortlich macht“, sagt Andreas Seel vom IPH.

Auch bei autonomen Drohnen, die wie die Rettungsdrohne im offenen Luftraum fliegen sollen, sind die Regularien kompliziert. Flüge müssen oft einzeln bei der Landesluftfahrtbehörde angemeldet werden. Nur in Ausnahmen dürfen autonome Drohnen außerhalb des Sichtkontakts fliegen. In dicht besiedelten Gebieten stellen Drohnen grundsätzlich ein erhöhtes Sicherheitsrisiko dar. Technisch ist also bereits vieles machbar, aber der rechtliche Rahmen für autonome Drohnen im Einsatz fehlt noch.

Empfohlene Beiträge