Wenn der Roboter nach dem Weg fragt
"Wir glauben, dass die Methode und die Ergebnisse als Sprungbrett dienen können auf dem Weg zu kognitiveren und sozial interaktiveren Roboter-Systemen", schreibt das Team um Andrea Bauer und Martin Buss von der Technischen Universität München und dem dortigen Bernstein Zentrum für Computational Neuroscience. Der Autonomous City Explorer ist wie ein verloren gegangener Mensch auf fremde Hilfe angewiesen, da er keine internen Orientierungshilfen an Bord hat. Stattdessen ist er mit Kameras ausgestattet, die die Umgebung aufnehmen, sowie mit Software, die die Bilder nach Menschen analysiert: typische Bewegungen und eine aufrechte Haltung sind die Hinweisgeber. Ist ein Mensch erkannt, rollt "ACE" auf ihn zu, dreht ihm seinen kopfähnlichen Aufsatz zu, an dem ein Bildschirm mit bewegten Lippen montiert ist, und bittet ihn mit einfachen Sätzen über Lautsprecher um Hilfe. Ist der Mensch bereit, so soll er kurz den zweiten Bildschirm berühren. Dann muss er in die Richtung zum Ziel zeigen, was wieder von den Kameras aufgenommen und per Software analysiert wird. Aus der Haltung filtert der Computer die gezeigte Richtung, bevor sich die Lautsprecherstimme bedankt und der Roboter sich wieder in Bewegung setzt.
Der Testlauf habe bewiesen, dass Robotersyteme in einer unbekannten Umgebung erfolgreich Aufgaben bewältigen können, selbst wenn sie keine Informationen bekommen, so Buss und Kollegen: "ACE" interagierte auf seinem Weg mit 38 Personen und nur eine zeigte ihm den falschen Weg. Theoretisch fährt das Gerät dann so lange in die falsche Richtung, bis der Nächste wieder den richtigen Weg weist. Deshalb arbeiten die Forscher zurzeit an Algorithmen in der Abfrage, die die Antworten auf Plausibilität überprüfen und den Roboter vermutlich falsche Wege erkennen lassen. Für zukünftige Versionen des City-Erforschers wäre auch eine Spracherkennung ein künftiges Ziel, um das Zeigen zu vermeiden - allerdings birgt das die Schwierigkeit, dass Roboter und Mensch je nach Standpunkt unterschiedliche Dinge unter "links" und "rechts" verstehen. Auch die kognitive Architektur, also die Software zum Verstehen der Information, müsse also erweitert und verbessert werden.