Wenn der Roboter nach dem Weg fragt

Menschen statt Satelliten können interaktiven Robotern helfen, ihr Ziel zu finden
München - Wenn ein kleiner, knubbeliger Roboter nach dem Weg fragt, sind viele Passanten bereit zu helfen - so ein Nebenergebnis aus dem Testlauf des Münchner Prototypen "ACE" - ein mobiler Roboter, der aussieht wie ein grauer Standbriefkasten auf Rädern. Hauptergebnis war allerdings, dass der "Autonome City-Erforscher" (Autonomous City Explorer) ohne Hilfe von GPS-Geräten oder gespeicherten Straßenkarten den Weg nach Hause finden konnte. "ACE" verlässt sich allein auf die Hinweise von Passanten, die er mithilfe seiner Kamera als Menschen identifiziert hat. Per Lautsprecher und bewegtem Mund auf einem kleinen Bildschirm spricht er sie an, und wenn sie bereit sind zu helfen, analysiert er, in welche Richtung sie zeigen. Auf diese Weise legte der kleine Roboter in seinem Testlauf durch München 1,5 Kilometer zurück und gelangte erfolgreich von der Universität zum Marienplatz in der Innenstadt. Am meisten bremsten dabei nicht falsche Richtungsangaben, sondern eine große Gruppe neugieriger Passanten in einer belebten Fußgängerzone. "ACE" ist allerdings nicht als Spielzeug gedacht, sondern soll die Forschung in punkto Mensch-Maschine-Interaktion voranbringen. Ebenso geht es um autonome Navigation außerhalb kontrollierter Umgebungen, in welchen sich typische Arbeitsroboter heute bewegen, heißt es in der kommenden Ausgabe des "International Journal of Social Robotics".

"Wir glauben, dass die Methode und die Ergebnisse als Sprungbrett dienen können auf dem Weg zu kognitiveren und sozial interaktiveren Roboter-Systemen", schreibt das Team um Andrea Bauer und Martin Buss von der Technischen Universität München und dem dortigen Bernstein Zentrum für Computational Neuroscience. Der Autonomous City Explorer ist wie ein verloren gegangener Mensch auf fremde Hilfe angewiesen, da er keine internen Orientierungshilfen an Bord hat. Stattdessen ist er mit Kameras ausgestattet, die die Umgebung aufnehmen, sowie mit Software, die die Bilder nach Menschen analysiert: typische Bewegungen und eine aufrechte Haltung sind die Hinweisgeber. Ist ein Mensch erkannt, rollt "ACE" auf ihn zu, dreht ihm seinen kopfähnlichen Aufsatz zu, an dem ein Bildschirm mit bewegten Lippen montiert ist, und bittet ihn mit einfachen Sätzen über Lautsprecher um Hilfe. Ist der Mensch bereit, so soll er kurz den zweiten Bildschirm berühren. Dann muss er in die Richtung zum Ziel zeigen, was wieder von den Kameras aufgenommen und per Software analysiert wird. Aus der Haltung filtert der Computer die gezeigte Richtung, bevor sich die Lautsprecherstimme bedankt und der Roboter sich wieder in Bewegung setzt.

Der Testlauf habe bewiesen, dass Robotersyteme in einer unbekannten Umgebung erfolgreich Aufgaben bewältigen können, selbst wenn sie keine Informationen bekommen, so Buss und Kollegen: "ACE" interagierte auf seinem Weg mit 38 Personen und nur eine zeigte ihm den falschen Weg. Theoretisch fährt das Gerät dann so lange in die falsche Richtung, bis der Nächste wieder den richtigen Weg weist. Deshalb arbeiten die Forscher zurzeit an Algorithmen in der Abfrage, die die Antworten auf Plausibilität überprüfen und den Roboter vermutlich falsche Wege erkennen lassen. Für zukünftige Versionen des City-Erforschers wäre auch eine Spracherkennung ein künftiges Ziel, um das Zeigen zu vermeiden - allerdings birgt das die Schwierigkeit, dass Roboter und Mensch je nach Standpunkt unterschiedliche Dinge unter "links" und "rechts" verstehen. Auch die kognitive Architektur, also die Software zum Verstehen der Information, müsse also erweitert und verbessert werden.

(c) Wissenschaft aktuell
Quelle: "The Autonomous City Explorer: Towards Natural Human-Robot Interaction in Urban Environments", Andrea Bauer, Martin Buss et al.; International Journal of Social Robotics (im Druck)


 

Home | Über uns | Kontakt | AGB | Impressum | Datenschutzerklärung
© Wissenschaft aktuell & Scientec Internet Applications + Media GmbH, Hamburg