CAMPUS

Dein Weg als Klang

Camassia ist eine App für das Smartphone, die es blinden Nutzern ermöglicht, ihren Fußweg akustisch wahrzunehmen. Sie funktioniert dank eines cleveren Bilderkennungsalgorithmus, der von Informatikstudenten des KIT erfunden wurde.

Fotos: Harald Kucharek, Carsten Naber, Christian Bortes/CC

 

Menschen sind großartige Erfinder: Sie spalten Atomkerne oder tüfteln am Quantencomputer. Doch etwas Praktikables für Blinde und sehgeschädigte Menschen zu erfinden, damit sie sich wie andere Menschen selbstbestimmt in ihrem Alltag bewegen können, das scheint eine wirkliche Herausforderung zu sein. Auch im Zeitalter autonomer Fahrzeuge und künstlicher Intelligenz verlassen diese sich vor allem auf Hund und Stock.

Mangelnder Erfindungseifer ist dabei nicht das Problem. Tatsächlich wird heute Spezial-Hardware gebaut, die aber oft sehr teuer ist. Eine Gruppe von Informatikstudenten des KIT hat nun vorgemacht, dass es auch anders geht: Sie haben einen Bilderkennungsalgorithmus erfunden, der auf handelsüblichen Smartphones funktioniert und der Hindernisse identifiziert und freie Wege erkennt. Die Softwarefirma iXpoint, mit der das KIT und einer seiner Vorläufer schon seit den 1990er Jahren kooperiert, hat daraus nun die Smartphone App Camassia als Assistenzsystem für Blinde entwickelt. Es erzeugt akustische Signale, die es dem Nutzer ermöglichen, einem beliebigen Weg zu folgen. Es ist das erste interaktive Assistenzsystem dieser Art und funktioniert völlig unabhängig von einer Satellitennavigation oder elektronischen Karten.

 

Vom Roboter-Auto zum Assistenzsystem für Blinde
Die Geschichte von Camassia beginnt im Jahre 2015 mit der Teilnahme der studentischen Hochschulgruppe Kamaro Engineering e.V.
am KIT an einem Roboter-Wettbewerb in Tschechien. Gegenstand des Wettbewerbs war es, ein Fahrzeug selbstständig im städtischen Umfeld auf Gehwegen vom Start zum Ziel fahren zu lassen. Die angehenden Ingenieurinnen und Ingenieure hatten bereits mehrere autonome Roboter in Eigenregie entwickelt und umgesetzt. In diesem Jahr hatten sie aber etwas Besonderes im Gepäck, mit ihrem Roboterfahrzeug Beteigeuze wollten sie eine neuartige Navigationsmethode testen. „Grundlage war eine Beobachtung, die jeder selbst ganz einfach nachprüfen kann“, berichtet der Informatikstudent Michael Fürst, der Beteigeuze damals programmierte, „Fußwege haben in der Regel eine geringere Farbsättigung als ihre Umgebung.“

 

Siegreicher Beteigeuze mit den Kamaros (v.l.) Carsten Naber, Robert Wilbrandt, Michael Fürst und Anton Schirg bei der Robotour 2015 in Písek, Teschechien

 

Mithilfe eines entsprechenden Bilderkennungsalgorithmus, der die Farbinformationen aus der Bordkamera in Steuerbefehle umsetzte, konnte Beteigeuze der Teststrecke selbständig folgen. Und das so zuverlässig, dass Beteigeuze den Wettbewerb mit deutlichem Abstand gewann. Ein toller Erfolg für das Kamaro-Team, aber was sie Sinnvolles mit ihrem Gehweg-Erkennungssystem anfangen sollten, wussten sie damals noch nicht. Der entscheidende Einfall manifestierte sich dann 2016 auf der Gulaschprogrammiernacht des Karlsruher Chaos Computer Clubs Entropia e.V. (dabei geht es seit 2002 ums Programmieren, aber tatsächlich auch um Gulasch. Am 10.-13. Mai 2018 findet übrigens die 18. GPN statt). Michael Fürst stellte dort seinen Ansatz einer Probabilistischen Robotik einem technologie-affinen Publikum vor (dazu gibt es auch einen spannenden Podcast!) und zum ersten Mal kam dort die Idee auf, den Bilderkennungsalgorithmus für blinde Menschen nutzbar zu machen. iXpoint griff das Konzept auf und innerhalb eines Jahres entstand die erste automatische und interaktive Wegerkennung für Blinde.

 

Vierundzwanzig Töne weisen Dir den Weg
Die Anwendung der Camassia App ist denkbar einfach, wie Sebastian Ritterbusch erklärt, der als Projektmanager bei iXpoint tätig ist: „Der Nutzer hält das Smartphone in Laufrichtung und sobald die Farbeigenschaften des Weges erfasst sind, kann es losgehen. Das Smartphone muss dabei weder gerade, noch besonders ruhig gehalten werden.“ Das funktioniert, weil der Algorithmus jede Sekunde 30 Einzelbilder berücksichtigt, die zuvor mithilfe des üblichen Bewegungssensors im Smartphone begradigt wurden.

 

 

 

Auf einer horizontalen Achse vor dem Nutzer berechnet der Algorithmus daraus zuverlässig den Bereich mit der geringsten Farbsättigung und damit die wahrscheinlichste Richtung, um einem Fußweg zu folgen. Mit einer Verzögerung von maximal einer zehntel Sekunde wird diese Information anschließend akustisch dargestellt. Standardmäßig verwendet das Assistenzsystem dabei eine Skala von 24 akustischen Halbtönen, die mittels Stereoklang, Schallintensität und Tonhöhe den Verlauf des Weges räumlich verorten. Die Form der Sonifikation kann aber entsprechend der spezifischen Bedürfnisse des jeweiligen Nutzers auch angepasst werden. Optional stehen etwa weißes Rauschen oder eine auf die größte Richtungswahrscheinlichkeit reduzierte akustische Darstellung zur Verfügung.

 

Die Freiheit der Präerielilien
Dass Camassia für Blinde und Sehgeschädigte zu einem nützlichen Hilfsmittel geworden ist, verdankt das Assistenzsystem auch dem Informatiker Gerhard Jaworek vom Studienzentrum für Sehgeschädigte (SZS) am KIT. Er ist selbst blind und hat die Entwicklung von Anfang an im Selbstversuch begleitet: „Ich habe darauf Wert gelegt, dass ein Produkt entsteht, das nicht an der Zielgruppe vorbei entwickelt wird.“ Zwar würde die App seinen Blindenstock im Alltag keinesfalls ersetzten, aber es sei eine sehr willkommene Ergänzung. An Camassia gefällt ihm vor allem die interaktive Einsatzmöglichkeit und Unabhängigkeit des Systems. Sogar in Innenräumen könne er sich damit orientieren.

 

 

Aber warum eigentlich der Name Camassia? Zum einen ist da die Affinität von Wissenschaftlern für Kofferwörter anzuführen; in diesem Fall eine Verschmelzung von camera und assistence (fast zumindest…). Gleichzeitig ist das aber auch der Name der Prärielilie. Camassia verweist damit auf die Freiheit im Park auch einmal den Nebenpfad einzuschlagen – um dorthin zu gelangen, wo duftende Blumen locken.

Samstag, 5. Mai, 2018
  CAMPUS


Martin Heidelberger

Geschrieben von: Martin Heidelberger